このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200413となっている論文です。

PDF登録状況(公開日: 20200413)

TitleAuthorsAbstract論文公表日・翻訳日
# 連続波励起ルビジウム蒸気中に発生する周波数アップ変換磁場のスパイキングダイナミクス

Spiking dynamics of frequency up-converted field generated in continuous-wave excited rubidium vapours ( http://arxiv.org/abs/2003.06149v2 )

ライセンス: Link先を確認
Alexander M. Akulshin, Nafia Rahaman, Sergey A. Suslov, Dmitry Budker, and Russell J. McLean(参考訳) 780nmと776nmのレーザー光で5D5/2レベルに励起されたRb蒸気2光子中の6P3/2-5S1/2遷移で発生する420nmの周波数アップコンバート放出のスパイキングダイナミクスについて報告する。 スパイク持続時間は、連続およびパルスポンプ放射との相互作用に関与する励起レベルの自然寿命よりも小さい。 420nmのスパイクは、5D5/2-6P3/2遷移によって生じる5.23 {\mu}mの方向放射の時間的性質に起因する。 スパイキング体制と協調効果の関係について論じる。 観測された確率的挙動は, 印加したレーザー場のランダムなゆらぎではなく, 協調効果の量子力学的性質によるものであることが示唆された。

We report on spiking dynamics of frequency up-converted emission at 420 nm generated on the 6P3/2-5S1/2 transition in Rb vapour two-photon excited to the 5D5/2 level with laser light at 780 and 776 nm. The spike duration is less than the natural lifetime of any excited level involved in the interaction with both continuous and pulsed pump radiation. The spikes at 420 nm are attributed to temporal properties of the directional emission at 5.23 {\mu}m generated on the population inverted 5D5/2-6P3/2 transition. A link between the spiking regime and cooperative effects is discussed. We suggest that the observed stochastic behaviour is due to the quantum-mechanical nature of the cooperative effects rather than random fluctuation of the applied laser fields.
翻訳日:2023-05-29 06:25:09 公開日:2020-04-13
# Majorana Qubitsの読み出し

Readout of Majorana Qubits ( http://arxiv.org/abs/2004.02124v2 )

ライセンス: Link先を確認
Jacob F. Steiner and Felix von Oppen(参考訳) マヨラナ境界状態を持つ位相量子計算のスキームは、マヨラナ作用素の積を射影的に測る能力に大きく依存する。 ここでは、読み出し装置を含むマルコフ量子測定理論を用いて、そのような測定を解析する。 具体的には,トンネル結合量子ドットの連続電荷センシングと量子点接触によるマヨラナ量子ビットの読み出しに注目した。 マヨラナ積の射影測度 $\prod_i\hat{\gamma}_i$ は、非常に一般的な状況下で連続電荷センシングによって実現できることを示す。 基本的要件は、量子ドット電荷とマヨラナ積とを結合した局所パリティ$\hat{\pi}$が保存され、結合されたパリティ$\hat{\pi}$の2つの固有空間が区別可能な測定信号を生成することである。 量子ビットの読み出しは、量子点-接触電流のノイズ相関を測定する必要がある。 平均電流は、微調整されたパラメータや緩和プロセスの存在下でのみ、キュービット読み出しを過渡的に符号化する。 また,対応する測定時間とデコヒーレンス時間について検討し,計測プロトコルに有害な残差マヨラナハイブリダイゼーションなどのプロセスについて考察する。 最後に、対称性保護された読み出しと呼ばれる基盤となるメカニズムは極めて一般的であり、マヨラナ系と非マヨラナ系の両方にさらなる意味を持つ。

Schemes for topological quantum computation with Majorana bound states rely heavily on the ability to measure products of Majorana operators projectively. Here, we employ Markovian quantum measurement theory, including the readout device, to analyze such measurements. Specifically, we focus on the readout of Majorana qubits via continuous charge sensing of a tunnel-coupled quantum dot by a quantum point contact. We show that projective measurements of Majorana products $\prod_i\hat{\gamma}_i$ can be implemented by continuous charge sensing under quite general circumstances. Essential requirements are that a combined local parity $\hat{\pi}$, involving the quantum dot charge along with the Majorana product of interest, be conserved, and that the two eigenspaces of the combined parity $\hat{\pi}$ generate distinguishable measurement signals. We find that qubit readout may have to rely on measuring noise correlations of the quantum-point-contact current. The average current encodes the qubit readout only transiently for fine-tuned parameters or in the presence of relaxation processes. We also discuss the corresponding measurement and decoherence times and consider processes such as residual Majorana hybridizations which are detrimental to the measurement protocol. Finally, we emphasize that the underlying mechanism -- which we term symmetry-protected readout -- is quite general and has further implications for both, Majorana and non-Majorana systems.
翻訳日:2023-05-26 08:31:39 公開日:2020-04-13
# majorana qubit readoutにおけるparity-to-charge変換

Parity-to-charge conversion in Majorana qubit readout ( http://arxiv.org/abs/2004.02123v2 )

ライセンス: Link先を確認
Morten I. K. Munk and Jens Schulenborg and Reinhold Egger and Karsten Flensberg(参考訳) トンネル結合量子ドットの電荷に自由度が変換されたマヨラナ量子ビットに対するマルコフ的読み出し過程の時間依存性効果について検討する。 最近確立された有効なリンドブラディアン近似 [1-3] を適用することにより、回転波近似を超えた緩和過程と脱コヒーレンス過程を記述し、全正かつトレース保存するリンドブラディアンマスター方程式が得られる。 このアプローチは、実験的に関連する読み出しデバイスを表す幅広い弱い結合環境に適用できる。 本研究では, 一般的なオーミックボソニック浴の存在下での熱崩壊の場合, 特に電磁回路の電位変動について詳細に検討した。 さらに、ドット電荷に容量結合した量子点接触を用いたパリティ読み出しのための非平衡測定環境についても検討する。

We study the time-dependent effect of Markovian readout processes on Majorana qubits whose parity degrees of freedom are converted into the charge of a tunnel-coupled quantum dot. By applying a recently established effective Lindbladian approximation [1-3], we obtain a completely positive and trace preserving Lindblad master equation for the combined dot-qubit dynamics, describing relaxation and decoherence processes beyond the rotating-wave approximation. This approach is applicable to a wide range of weakly coupled environments representing experimentally relevant readout devices. We study in detail the case of thermal decay in the presence of a generic Ohmic bosonic bath, in particular for potential fluctuations in an electromagnetic circuit. In addition, we consider the nonequilibrium measurement environment for a parity readout using a quantum point contact capacitively coupled to the dot charge.
翻訳日:2023-05-26 08:31:17 公開日:2020-04-13
# 偏光符号化光-スピン界面

A Polarization Encoded Photon-to-Spin Interface ( http://arxiv.org/abs/2004.02381v2 )

ライセンス: Link先を確認
Kevin C. Chen, Eric Bersin, Dirk Englund(参考訳) 本研究では,フォトニック結晶キャビティに結合した固体欠陥のスピン状態に対して,光子の偏光で符号化された量子ビットをマッピングする集積型光デバイス「偏光エンコード光-スピン界面」(pepsi)を提案する。 装置の偏光消滅率と原子キャビティの協調性に対する状態の忠実度依存性を理論的に解析する。 さらに,解析モデルと数値モデルによる比重トレードオフについても検討する。 シミュレーションにより,本設計により高忠実度光子対スピンマッピングが可能となることを示す。

We propose an integrated photonics device for mapping qubits encoded in the polarization of a photon onto the spin state of a solid-state defect coupled to a photonic crystal cavity: a `Polarization-Encoded Photon-to-Spin Interface' (PEPSI). We perform a theoretical analysis of the state fidelity's dependence on the device's polarization extinction ratio and atom-cavity cooperativity. Furthermore, we explore the rate-fidelity trade-off through analytical and numerical models. In simulation, we show that our design enables efficient, high fidelity photon-to-spin mapping.
翻訳日:2023-05-26 06:34:25 公開日:2020-04-13
# デコヒーレンス効果下における測定誘起相関のロバスト性

Robustness of Measurement-Induced Correlations Under Decoherence Effect ( http://arxiv.org/abs/2004.05115v2 )

ライセンス: Link先を確認
S. Bhuvaneswari, R. Muthuganesan and R. Radha(参考訳) 本稿では,エンタングルメントや測定誘起非局所性(min)などの量子相関測度のダイナミクスについて検討する。 任意のベル対角混合状態、例えばビット位相フリップ、偏極化、一般化振幅減衰チャネルなどのマルコフ局所雑音から始め、デコヒーレンスパラメータの関数としてMIN(トレース距離、ヒルベルト・シュミットノルム、相対エントロピー)の異なる形式によって得られた収束と量子相関によって測定された絡み合いの減衰を与える。 局所雑音が量子相関の動的挙動に及ぼす影響を観測した。 本稿では,復調,騒音の頑健性,デコヒーレンスパラメータの急激な変化など,MINの特異かつ重要な特徴について述べる。 すべてのノイズが、部分的に絡まった状態の突然の絡み合い死を引き起こすことが観察された。 さらに、非ゼロ量子相関を持つ分離可能な量子状態の存在をMINの観点から示す。

In this article, we study the dynamics of quantum correlation measures such as entanglement and measurement-induced nonlocality (MIN). Starting from an arbitrary Bell diagonal mixed states under Markovian local noise such as bit-phase flip, depolarizing and generalized amplitude damping channel, we provide the decays of the entanglement measured by concurrence and quantum correlation captured by different forms of MIN (trace distance, Hilbert-Schmidt norm and relative entropy) as a function of the decoherence parameters. The effect of local noises on the dynamical behaviors of quantum correlation is observed. We show the existence of specific and important features of MIN such as revival, noise robustness and sudden change with respect to decoherence parameter. It is observed that all the noises cause sudden death of entanglement for partially entangled states. Further, we show the existence of separable quantum states with non-zero quantum correlations in terms of MIN.
翻訳日:2023-05-25 06:14:57 公開日:2020-04-13
# 有限温度における量子多体系の断熱特性

Characterizing Adiabaticity in Quantum Many-Body Systems at Finite Temperature ( http://arxiv.org/abs/2004.05842v1 )

ライセンス: Link先を確認
A. H. Skelt and I. D'Amico(参考訳) 量子断熱定理は時間依存量子系の基本であるが、多体系における断熱的進化を定量的に特徴付けることは困難である。 この研究は、量子多体系の力学における断熱度を定量的に決定するための、適切な状態と粒子密度の測定値の使用が実行可能な方法であることを示した。 この方法は、量子技術や量子熱力学関連プロトコルにとって重要な有限温度系のシステムにも適用される。 量子断熱基準を有限温度にまで拡張した結果と比較することにより、メモリ効果の計算の重要性を論じる。 提案手法により, 系局所粒子密度のみの断熱的進化追跡の程度を特徴付けることができるため, 大規模多体系の理論的計算と実験の両方に応用できる可能性が示唆された。

The quantum adiabatic theorem is fundamental to time dependent quantum systems, but being able to characterize quantitatively an adiabatic evolution in many-body systems can be a challenge. This work demonstrates that the use of appropriate state and particle-density metrics is a viable method to quantitatively determine the degree of adiabaticity in the dynamic of a quantum many-body system. The method applies also to systems at finite temperature, which is important for quantum technologies and quantum thermodynamics related protocols. The importance of accounting for memory effects is discussed via comparison to results obtained by extending the quantum adiabatic criterion to finite temperatures: it is shown that this may produce false readings being quasi-Markovian by construction. As the proposed method makes it possible to characterize the degree of adiabatic evolution tracking only the system local particle densities, it is potentially applicable to both theoretical calculations of very large many-body systems and to experiments.
翻訳日:2023-05-24 11:38:50 公開日:2020-04-13
# スクイズド熱状態を用いた量子強化光位相推定

Quantum enhanced optical phase estimation with a squeezed thermal state ( http://arxiv.org/abs/2004.05831v1 )

ライセンス: Link先を確認
Juan Yu, Yue Qin, Jinliang Qin, Hong Wang, Zhihui Yan, Xiaojun Jia, and Kunchi Peng(参考訳) 量子位相推定プロトコルは、非古典的な光状態の応用により、標準量子限界(sql)よりも精度の高い位相シフトの測定方法を提供することができる。 量子位相推定のためのセンシティブな資源として、1つの二次状態のばらつきが対応するSQLよりも低い圧縮真空状態が指摘され、その推定精度は、圧縮状態の特性に直接影響される。 ここでは, スクイーズ状態の純度とスクイーズレベルが量子位相推定の精度に及ぼす影響を詳細に解析する。 圧縮された熱状態に対して達成可能な最大精度を評価し, 実験結果は理論解析と一致した。 また、SQLを超える位相推定間隔$\Delta \theta $の幅は、圧縮された状態の純度と相関していることがわかった。

Quantum phase estimation protocols can provide a measuring method of phase shift with precision superior to standard quantum limit (SQL) due to the application of a nonclassical state of light. A squeezed vacuum state, whose variance in one quadrature is lower than the corresponding SQL, has been pointed out a sensitive resource for quantum phase estimation and the estimation accuracy is directly influenced by the properties of the squeezed state. Here we detailedly analyze the influence of the purity and squeezing level of the squeezed state on the accuracy of quantum phase estimation. The maximum precision that can be achieved for a squeezed thermal state is evaluated, and the experimental results are in agreement with the theoretical analyses. It is also found that the width of the phase estimation interval $\Delta \theta $ beyond SQL is correlated with the purity of the squeezed state.
翻訳日:2023-05-24 11:38:34 公開日:2020-04-13
# 犯罪にかかわる社会経済・建築環境・移動環境:複数の都市を対象として

Socio-economic, built environment, and mobility conditions associated with crime: A study of multiple cities ( http://arxiv.org/abs/2004.05822v1 )

ライセンス: Link先を確認
Marco De Nadai, Yanyan Xu, Emmanuel Letouz\'e, Marta C. Gonz\'alez, Bruno Lepri(参考訳) 現在、世界の人口の23%が数百万の都市に住んでいる。 これらの大都市では、犯罪活動は小さな都市や農村部よりもずっと高く暴力的である。 したがって、大都市における都市犯罪に影響を与える要因を理解することは、強いニーズである。 主流研究は、歴史的パネルデータや、生態的要因と探索的マッピングを組み合わせた歴史的パターンの分析を通じて犯罪記録を分析する。 最近では、機械学習が犯罪予測のインフォームドを提供している。 しかし、以前の研究では、社会経済的特徴のような限られた要素のみを考慮し、しばしば大きな空間単位を考慮し、1つの都市に焦点を合わせてきた。 したがって、文化や都市にまたがる犯罪に影響を及ぼす要因の理解は非常に限られている。 ここでは,犯罪が社会経済的要因だけでなく,構築された環境(例えば土地利用)や近隣の移動特性にどのように関連しているかを検討するベイズモデルを提案する。 そのために、複数のオープンデータソースを携帯電話のトレースと統合し、ボストン、Bogot\'a、ロサンゼルス、シカゴなど、さまざまな都市における犯罪との関連性を比較します。 その結果, 社会経済的条件, 移動情報, 周辺地域の身体的特徴の併用が犯罪の発生を効果的に説明し, 従来のアプローチの性能を向上させることができた。 しかし, 近隣住民の社会・生態的要因は, ある都市と他の都市とは大きく異なる。 したがって、明らかに "one fits all" モデルは存在しない。

Nowadays, 23% of the world population lives in multi-million cities. In these metropolises, criminal activity is much higher and violent than in either small cities or rural areas. Thus, understanding what factors influence urban crime in big cities is a pressing need. Mainstream studies analyse crime records through historical panel data or analysis of historical patterns combined with ecological factor and exploratory mapping. More recently, machine learning methods have provided informed crime prediction over time. However, previous studies have focused on a single city at a time, considering only a limited number of factors (such as socio-economical characteristics) and often at large spatial units. Hence, our understanding of the factors influencing crime across cultures and cities is very limited. Here we propose a Bayesian model to explore how crime is related not only to socio-economic factors but also to the built environmental (e.g. land use) and mobility characteristics of neighbourhoods. To that end, we integrate multiple open data sources with mobile phone traces and compare how the different factors correlate with crime in diverse cities, namely Boston, Bogot\'a, Los Angeles and Chicago. We find that the combined use of socio-economic conditions, mobility information and physical characteristics of the neighbourhood effectively explain the emergence of crime, and improve the performance of the traditional approaches. However, we show that the socio-ecological factors of neighbourhoods relate to crime very differently from one city to another. Thus there is clearly no "one fits all" model.
翻訳日:2023-05-24 11:38:07 公開日:2020-04-13
# モノのインターネットにおけるブロックチェーン:アーキテクチャと実装

Blockchain in the Internet of Things: Architectures and Implementation ( http://arxiv.org/abs/2004.05817v1 )

ライセンス: Link先を確認
Oscar Delgado-Mohatar, Ruben Tolosana, Julian Fierrez and Aythami Morales(参考訳) 世界は毎日よりつながってきています。 高度な技術的進化と社会へのitの展開の増加により、iot(internet of things)に基づいたシナリオが現実のものと見なされるようになりました。 しかし、いくつかの予測が真実になる前に(今後数年間で約75億台のデバイスが相互接続されると予想されている)、スケーラビリティとセキュリティの観点から多くの努力をしなければならない。 本研究では,ブロックチェーンを現在のIoTシナリオに組み込んだ新しいアプローチを提案し,評価する。 本研究の主な貢献は次のとおりである。 i) ブロックチェーンをIoTシナリオに統合するさまざまな可能性の詳細な分析で、ほとんどのIoTデバイスの限られた処理能力とストレージスペース、現在のブロックチェーン技術の経済的コストとパフォーマンスに重点を置いている。 二 実際のシナリオにおけるIoTデバイスとの一方向通信と双方向通信を可能にし、あらゆる種類のデータを交換することができるBIoT Gatewayという新しいモジュールに基づく新しい方法 三 提案手法は、2つの異なる実生活IoTシナリオに対して完全に実装され、検証され、経済的コストと実行時間の観点から非常に興味深い結果が得られた。 私たちの実装のソースコードはethereum testnetで公開されています。

The world is becoming more interconnected every day. With the high technological evolution and the increasing deployment of it in our society, scenarios based on the Internet of Things (IoT) can be considered a reality nowadays. However, and before some predictions become true (around 75 billion devices are expected to be interconnected in the next few years), many efforts must be carried out in terms of scalability and security. In this study we propose and evaluate a new approach based on the incorporation of Blockchain into current IoT scenarios. The main contributions of this study are as follows: i) an in-depth analysis of the different possibilities for the integration of Blockchain into IoT scenarios, focusing on the limited processing capabilities and storage space of most IoT devices, and the economic cost and performance of current Blockchain technologies; ii) a new method based on a novel module named BIoT Gateway that allows both unidirectional and bidirectional communications with IoT devices on real scenarios, allowing to exchange any kind of data; and iii) the proposed method has been fully implemented and validated on two different real-life IoT scenarios, extracting very interesting findings in terms of economic cost and execution time. The source code of our implementation is publicly available in the Ethereum testnet.
翻訳日:2023-05-24 11:37:43 公開日:2020-04-13
# 多モードボゴリューボフ変換とフシミのq関数

Multimode Bogoliubov transformation and Husimi's Q-function ( http://arxiv.org/abs/2004.05766v1 )

ライセンス: Link先を確認
Joonsuk Huh(参考訳) 本稿では,多変量エルマイト多項式 (MHP) として同定されたフォック状態基底におけるガウス/非ガウス作用素の行列要素を評価するための数値スキームを提案する。 積分変換作用素を用いて多モードボゴリューボフ変換を行うと、フシミのガウス/非ガウス作用素のQ-函数は MHP の生成関数として容易に導出される。

In this paper, we present numerical schemes for evaluating the matrix elements of Gaussian/non-Gaussian operators in the Fock state basis, which are identified as multivariate Hermite polynomials (MHPs). Using the integral transformation operator to perform the multimode Bogoliubov transformation, Husimi's Q-functions of Gaussian/non-Gaussian operators are easily derived as the generating functions of MHPs.
翻訳日:2023-05-24 11:37:24 公開日:2020-04-13
# NISQデバイスのための位相多項式のアーキテクチャを考慮した合成

Architecture-aware synthesis of phase polynomials for NISQ devices ( http://arxiv.org/abs/2004.06052v1 )

ライセンス: Link先を確認
Arianne Meijer-van de Griend and Ross Duncan(参考訳) 本稿では,量子コンピュータの量子ビット接続性を考慮した位相多項式の量子回路合成アルゴリズムを提案する。 現在利用可能なNISQデバイスのアーキテクチャに焦点を当てる。 提案アルゴリズムは,現在Staqやt$$$ket$\rangle$で使われているアルゴリズムよりもCNOT深度が小さい回路を生成すると同時に,前者に対する実行時間を改善する。

We propose a new algorithm to synthesise quantum circuits for phase polynomials, which takes into account the qubit connectivity of the quantum computer. We focus on the architectures of currently available NISQ devices. Our algorithm generates circuits with a smaller CNOT depth than the algorithms currently used in Staq and t$|$ket$\rangle$, while improving the runtime with respect the former.
翻訳日:2023-05-24 11:31:08 公開日:2020-04-13
# 消散性Bethe Ansatz: 損失下での量子多体ダイナミクスの厳密解

Dissipative Bethe Ansatz: Exact Solutions of Quantum Many-Body Dynamics Under Loss ( http://arxiv.org/abs/2004.05955v1 )

ライセンス: Link先を確認
Berislav Buca, Cameron Booker, Marko Medenjak, Dieter Jaksch(参考訳) 我々はBethe Ansatz技術を用いて、損失を経験する散逸系を研究する。 この方法により、リウヴィリアスペクトルを正確に計算できる。 これにより、1および2体の損失を受ける冷原子、キャビティを脱出するボソンと結合したキャビティアレイ、キャビティ量子電磁力学を含む、幅広い実験的に関連するモデルのダイナミクスを解析的に計算する可能性を開くことができる。 このアプローチの例として、境界駆動型XXZスピン鎖の緩和特性について研究する。 我々は、リウビリアンギャップを正確に計算し、新しいタイプの動的散逸相転移で異なる緩和率を求める。 これは物理的に、損失が存在するにもかかわらず、容易軸系における安定なドメイン壁の形成に繋がる。 このような分析結果は、これまでこの種のシステムではアクセスできない。

We use the Bethe Ansatz technique to study dissipative systems experiencing loss. The method allows us to exactly calculate the Liouvillian spectrum. This opens the possibility of analytically calculating the dynamics of a wide range of experimentally relevant models including cold atoms subjected to one and two body losses, coupled cavity arrays with bosons escaping the cavity, and cavity quantum electrodynamics. As an example of our approach we study the relaxation properties in a boundary driven XXZ spin chain. We exactly calculate the Liouvillian gap and find different relaxation rates with a novel type of dynamical dissipative phase transition. This physically translates into the formation of a stable domain wall in the easy-axis regime despite the presence of loss. Such analytic results have previously been inaccessible for systems of this type.
翻訳日:2023-05-24 11:30:46 公開日:2020-04-13
# 単一光子干渉計における可変複雑性をもつ非エルミートキブル・ズールク機構

Non-Hermitian Kibble-Zurek mechanism with tunable complexity in single-photon interferometry ( http://arxiv.org/abs/2004.05928v1 )

ライセンス: Link先を確認
Peng Xue, Lei Xiao, Dengke Qu, Kunkun Wang, Hao-Wei Li, Jin-Yu Dai, Balazs Dora, Markus Heyl, Roderich Moessner, Wei Yi(参考訳) 量子物質の非エルミート的記述は近年、その位相的性質や例外点の物理、非エルミート的臨界点といった中心的側面を理解するという大きな進歩とともに、印象的な進歩を遂げている。 ここでは,単一光子干渉法を用いて,スローパラメータランプの実行時の欠陥生成をシミュレートすることにより,非エルミートkibble-zurek機構とその特異なスケーリング挙動を再構成する。 重要なことに、我々は高次例外点も実現でき、理論上予測されたキブル・ズレックのスケーリング挙動に実験的にアクセスできる。 我々の研究は、非エルミート量子時間発展の実験的複雑性を増大させる重要なステップである。 これはまた、フロンティアを純粋に単一粒子物理学から多体領域におけるますます複雑な状態へと移動させる探求をさらに進める。

Non-Hermitian descriptions of quantum matter have seen impressive progress recently, with major advances in understanding central aspects such as their topological properties or the physics of exceptional points, the non-Hermitian counterpart of critical points. Here, we use single-photon interferometry to reconstruct the non-Hermitian Kibble-Zurek mechanism and its distinct scaling behavior for exceptional points, by simulating the defect production upon performing slow parameter ramps. Importantly, we are able to realise also higher-order exceptional points, providing experimental access to their theoretically predicted characteristic Kibble-Zurek scaling behaviour. Our work represents a crucial step in increasing the experimental complexity of non-Hermitian quantum time-evolution. It thus also furthers the quest to move the frontier from purely single-particle physics towards increasingly complex settings in the many-body realm.
翻訳日:2023-05-24 11:30:35 公開日:2020-04-13
# スマートシティとITインフラを用いたソーシャルディスタンシング対策の実施と実施--新型コロナウイルスの事例

Enabling and Enforcing Social Distancing Measures using Smart City and ITS Infrastructures: A COVID-19 Use Case ( http://arxiv.org/abs/2004.09246v1 )

ライセンス: Link先を確認
Maanak Gupta, Mahmoud Abdelsalam, Sudip Mittal(参考訳) Internet of Things(モノのインターネット)は革命的なドメインであり、私たちの生活に影響を与え、世界に大きな変化をもたらす。 ユーザのためのデータ駆動でスマートなアプリケーションを容易にするために、いくつかのIoTアプリケーションが構想されている。 スマートシティとインテリジェントトランスポーテーションシステム(ITS)は、エンドユーザに対して、スマートでセキュアで安全なエクスペリエンスという未来的なビジョンを提供すると同時に、スパースリソースを効率的に管理し、都市運営の効率を最適化する。 しかし、新型コロナウイルス(COVID-19)のようなアウトブレイクやパンデミックは、既存の展開の限界を明らかにしているため、こうしたアウトブレイクを含むためのガイドラインやルール、政府命令の迅速かつタイムリーな実施のために、アーキテクチャ、アプリケーション、テクノロジーシステムを開発する必要がある。 本研究は,スマートシティとその応用における新しいアーキテクチャ,潜在的なユースケース,今後の方向性について概説する。

Internet of Things is a revolutionary domain that has the caliber to impact our lives and bring significant changes to the world. Several IoT applications have been envisioned to facilitate data driven and smart application for the user. Smart City and Intelligent Transportation System (ITS) offer a futuristic vision of smart, secure and safe experience to the end user, and at the same time efficiently manage the sparse resources and optimize the efficiency of city operations. However, outbreaks and pandemics like COVID-19 have revealed limitations of the existing deployments, therefore, architecture, applications and technology systems need to be developed for swift and timely enforcement of guidelines, rules and government orders to contain such future outbreaks. This work outlines novel architecture, potential use-cases and some future directions in developing such applications using Smart City and ITS.
翻訳日:2023-05-24 11:20:48 公開日:2020-04-13
# 超伝導量子ネットワークにおける誤差検出状態移動と絡み合い

Error-detected state transfer and entanglement in a superconducting quantum network ( http://arxiv.org/abs/2004.06168v1 )

ライセンス: Link先を確認
Luke D. Burkhart, James Teoh, Yaxing Zhang, Christopher J. Axline, Luigi Frunzio, M.H. Devoret, Liang Jiang, S.M. Girvin, and R.J. Schoelkopf(参考訳) モジュラーネットワークは、量子ビットを転送しモジュール間の絡み合いを生成する能力に基づいて、ますます複雑な量子デバイスにとって有望なパラダイムである。 これらのタスクは、拡張可能なネットワーク接続を可能にする低損失で高速なモジュール間リンクを必要とする。 これらの要求を同時に満たすことは、長い範囲の光量子ネットワークと、単一のクライオスタット内のモジュラー超伝導プロセッサの傑出した目標である。 分離モジュールに格納され、脱着可能な同軸バス共振器で接合された2つのボソニック量子ビット間のマイクロ波増幅ビームスプリッタ変換による超伝導ネットワークにおける通信と絡み合いを示す。 多光子符号化における量子ビットの転送と光子損失イベントの追跡を行い、その忠実度を向上させる。 さらに、2光子干渉による絡み合いや損失エラーに対するポストセレクションが発生すると、成功確率79%と忠実度0.94のベル状態となり、単一光子で得られる誤差を半減する。 これらの能力は、資源効率の良い直接ゲートの新たな可能性を含むモジュール間の忠実な操作のためのいくつかの有望な方法を示す。

Modular networks are a promising paradigm for increasingly complex quantum devices based on the ability to transfer qubits and generate entanglement between modules. These tasks require a low-loss, high-speed intermodule link that enables extensible network connectivity. Satisfying these demands simultaneously remains an outstanding goal for long-range optical quantum networks as well as modular superconducting processors within a single cryostat. We demonstrate communication and entanglement in a superconducting network with a microwave-actuated beamsplitter transformation between two bosonic qubits, which are housed in separate modules and joined by a demountable coaxial bus resonator. We transfer a qubit in a multi-photon encoding and track photon loss events to improve the fidelity, making it as high as in a single-photon encoding. Furthermore, generating entanglement with two-photon interference and postselection against loss errors produces a Bell state with success probability 79% and fidelity 0.94, halving the error obtained with a single photon. These capabilities demonstrate several promising methods for faithful operations between modules, including novel possibilities for resource-efficient direct gates.
翻訳日:2023-05-24 11:20:17 公開日:2020-04-13
# 重力レンズからの量子多体物理学

Quantum many-body physics from a gravitational lens ( http://arxiv.org/abs/2004.06159v1 )

ライセンス: Link先を確認
Hong Liu and Julian Sonner(参考訳) 過去20年間、凝縮物質、核物理学、重力、量子情報など、これまで遠隔で関係していた様々な分野の間で、実験的な進歩とホログラフィックの双対性によってもたらされる新しい強力な理論手法によって、驚くべき相互接続が出現してきた。 この非技術的レビューでは、量子多体力学と関連したホログラフィック双対性に関する最近の開発を例証する。 これには、準粒子やその輸送特性のない強相関相に対する洞察、量子多体カオス、量子情報のスクランブルが含まれる。 また、量子情報の「局所的」バージョンや重力双対を持つ量子多体状態の量子誤差補正解釈など、ホログラム双対構造自体の理解の最近の進歩についても論じ、そのような概念がブラックホールの蒸発のユニタリ性を示すのにどう役立つのかを論じる。

The last two decades have seen the emergence of stunning interconnections among various previously remotely related disciplines such as condensed matter, nuclear physics, gravity and quantum information, fueled both by experimental advances and new powerful theoretical methods brought by holographic duality. In this non-technical review we sample some recent developments in holographic duality in connection with quantum many-body dynamics. These include insights into strongly correlated phases without quasiparticles and their transport properties, quantum many-body chaos, and scrambling of quantum information. We also discuss recent progress in understanding the structure of holographic duality itself using quantum information, including a "local" version of the duality as well as the quantum error correction interpretation of quantum many-body states with a gravity dual, and how such notions help demonstrate the unitarity of black hole evaporation.
翻訳日:2023-05-24 11:19:56 公開日:2020-04-13
# 離散時間量子確率歩行の量子シミュレーション

Quantum Simulation of a Discrete-Time Quantum Stochastic Walk ( http://arxiv.org/abs/2004.06151v1 )

ライセンス: Link先を確認
Peter K. Schuhmacher, Luke C. G. Govia, Bruno G. Taketani, Frank K. Wilhelm(参考訳) 量子ウォークは、人工知能から光合成、量子輸送まで幅広い応用があることが示されている。 qsws(quantum stochastic walks)はこの概念を非ユニタリ進化に一般化している。 本稿では,量子デバイスにおける離散時間QSWを効果的に実装するためのトラジェクトリに基づく量子シミュレーションプロトコルを提案する。 一つのエッジを持つ2頂点グラフのプロトコルを導出した後、我々のプロトコルが任意のトポロジと接続性を持つグラフにどのように一般化するかを示す。 直進一般化は、複雑なグラフへのプロトコルの単純なスケーリングにつながる。 最後に、離散時間QSWによって制限された連続時間QSWのクラスをシミュレートする方法と、離散時間QSWのシミュレーションプロトコルにどのように適用できるかを示す。

Quantum walks have been shown to have a wide range of applications, from artificial intelligence, to photosynthesis, and quantum transport. Quantum stochastic walks (QSWs) generalize this concept to additional non-unitary evolution. In this paper, we propose a trajectory-based quantum simulation protocol to effectively implement a family of discrete-time QSWs in a quantum device. After deriving the protocol for a 2-vertex graph with a single edge, we show how our protocol generalizes to a graph with arbitrary topology and connectivity. The straight-forward generalization leads to simple scaling of the protocol to complex graphs. Finally, we show how to simulate a restricted class of continuous-time QSWs by a discrete-time QSW, and how this is amenable to our simulation protocol for discrete-time QSWs.
翻訳日:2023-05-24 11:19:39 公開日:2020-04-13
# 量子論に埋め込まれる確率論的モデルのキャラクタリゼーション

Characterization of the probabilistic models that can be embedded in quantum theory ( http://arxiv.org/abs/2004.06136v1 )

ライセンス: Link先を確認
Andrew J. P. Garner, Markus P. Mueller(参考訳) 物理系は、非常に高次元の作用素代数によって根本的に記述されているにもかかわらず、量子ビットは有用な情報理論のタスクを実行するために分離することができる。 これは、qubitsが高次元ヒルベルト空間に一貫して埋め込まれるからである。 古典確率分布の量子論への同様の埋め込みは、デコヒーレンスによる古典物理学の出現を可能にする。 ここで、他の確率モデルも同様に有限次元量子論に組み込むことができることを問う。 埋め込み可能なモデルは、実数、複素数、四元数上の量子論、(3次の自由度以上の量子ビット)「スピン因子」とそれらの直和というユークリッドの特殊ヨルダン代数に対応するものである。 これらのうち、超選択規則を持つ古典的および標準的な量子論のみが物理的デコヒーレンス写像から生じる。 この結果は、量子論の実験的な実験において、どのように(あるいはできない)かを明確にすることで大きな結果をもたらす。 さらに、制限のないすべての非古典的モデルは文脈的でなければならないことを示唆している。

Quantum bits can be isolated to perform useful information-theoretic tasks, even though physical systems are fundamentally described by very high-dimensional operator algebras. This is because qubits can be consistently embedded into higher-dimensional Hilbert spaces. A similar embedding of classical probability distributions into quantum theory enables the emergence of classical physics via decoherence. Here, we ask which other probabilistic models can similarly be embedded into finite-dimensional quantum theory. We show that the embeddable models are exactly those that correspond to the Euclidean special Jordan algebras: quantum theory over the reals, the complex numbers, or the quaternions, and "spin factors" (qubits with more than three degrees of freedom), and direct sums thereof. Among those, only classical and standard quantum theory with superselection rules can arise from a physical decoherence map. Our results have significant consequences for some experimental tests of quantum theory, by clarifying how they could (or could not) falsify it. Furthermore, they imply that all unrestricted non-classical models must be contextual.
翻訳日:2023-05-24 11:19:27 公開日:2020-04-13
# 誤りと外乱の不確かさ関係の普遍的定式化

A Universal Formulation of Uncertainty Relation for Error and Disturbance ( http://arxiv.org/abs/2004.06099v1 )

ライセンス: Link先を確認
Jaeha Lee and Izumi Tsutsui(参考訳) 本稿では、任意の量子測定に有効な不確実性関係の普遍的な定式化とその統計的性質に対する観測効果について述べる。 その単純さと操作性から、我々の一般関係も実験的に検証可能である。 我々の関係は、不確実性原理のハイゼンベルクの元々の哲学を尊重しながら、位置運動量測定に$\hbar/2$ を拘束するna{\"i}veに違反している。 我々の誤差とゆらぎの関係は、エラーの関係の輪郭であり、後者はKennard-Robertson (Schr{\"o}dinger) の関係を特別な場合として含み、これは1つのフレームワーク内での量子的不確定性、測定、観測効果に関する不確実性に関する3つの正統的な領域の統一的な図面を得る。

We present a universal formulation of uncertainty relation valid for any conceivable quantum measurement and their observer effects of statistical nature. Owing to its simplicity and operational tangibility, our general relation is also experimentally verifiable. Our relation violates the na{\"i}ve bound $\hbar/2$ for the position-momentum measurement while respecting Heisenberg's original philosophy of the uncertainty principle. Our error-disturbance relation is found to be a corollary to our relation for errors, the latter of which also entails the standard Kennard-Robertson (Schr{\"o}dinger) relation as a special case; this attains a unified picture of the three orthodox realms of uncertainty regarding quantum indeterminacy, measurement, and observer effect within a single framework.
翻訳日:2023-05-24 11:18:51 公開日:2020-04-13
# 線形有理スプラインを用いた可逆生成モデリング

Invertible Generative Modeling using Linear Rational Splines ( http://arxiv.org/abs/2001.05168v4 )

ライセンス: Link先を確認
Hadi M. Dolatabadi and Sarah Erfani and Christopher Leckie(参考訳) 正規化フローは、可逆写像の集合を通して任意の確率分布をモデル化しようとする。 これらの変換は、高次元シナリオで使用できるトラクタブルヤコビ行列式を達成するために必要である。 最初の正規化フロー設計ではアフィン変換に基づく結合層マッピングを用いた。 このようなモデルの大きな利点は、計算し易い逆数である。 それでも、アフィン変換を使うことは、そのようなモデルの表現性を制限する可能性がある。 近年,アフィン変換に代わる可逆部分多項式関数が注目されている。 しかし、これらの方法は多項式方程式を解いて逆数を計算する必要がある。 本稿では, 結合層に使用されるアフィン変換の代替として線形有理スプラインを用いて検討する。 単純な逆数を持つだけでなく、推論と生成も同様のコストとアーキテクチャを持つ。 さらに,従来の手法と比較して,本手法の性能の競争力を示すシミュレーション結果が得られた。

Normalizing flows attempt to model an arbitrary probability distribution through a set of invertible mappings. These transformations are required to achieve a tractable Jacobian determinant that can be used in high-dimensional scenarios. The first normalizing flow designs used coupling layer mappings built upon affine transformations. The significant advantage of such models is their easy-to-compute inverse. Nevertheless, making use of affine transformations may limit the expressiveness of such models. Recently, invertible piecewise polynomial functions as a replacement for affine transformations have attracted attention. However, these methods require solving a polynomial equation to calculate their inverse. In this paper, we explore using linear rational splines as a replacement for affine transformations used in coupling layers. Besides having a straightforward inverse, inference and generation have similar cost and architecture in this method. Moreover, simulation results demonstrate the competitiveness of this approach's performance compared to existing methods.
翻訳日:2023-01-11 05:48:41 公開日:2020-04-13
# ニュース記事の代表的見出しの作成

Generating Representative Headlines for News Stories ( http://arxiv.org/abs/2001.09386v4 )

ライセンス: Link先を確認
Xiaotao Gu, Yuning Mao, Jiawei Han, Jialu Liu, Hongkun Yu, You Wu, Cong Yu, Daniel Finnie, Jiaqi Zhai, Nicholas Zukoski(参考訳) 何百万ものニュース記事が毎日オンラインで公開されており、読者がフォローするのは圧倒的だ。 同じ出来事をニュースに報告している記事のグループ化は、読者のニュース消費を支援する一般的な方法である。 しかし、各ストーリーの代表的見出しを効率的かつ効果的に生成するのは難しい研究課題である。 文書集合の自動要約は、何十年も研究されてきたが、記事群の代表的見出しの生成に焦点を当てた研究はほとんどない。 最も少ない冗長性で多くの情報を捉えようとする要約とは異なり、見出しはストーリー記事が共同で共有する情報を短時間で捉え、個々の記事に特有すぎる情報を除外することを目的としている。 本研究では,ニュース記事に代表的見出しを生成する問題を考察する。 人間のアノテーションを使わずに大規模世代モデルを訓練するための遠隔監視手法を開発した。 このアプローチは2つの技術コンポーネントに重点を置いています。 まず,大量のラベルなしコーパスと異なる品質vsを組み込んだマルチレベル事前学習フレームワークを提案する。 -異なるレベルでの量的バランス。 このフレームワークでトレーニングされたモデルは、純粋なヒトキュレートされたコーパスでトレーニングされたモデルよりも優れていることを示す。 第2に,複数記事が共有する有能な情報を抽出する,自己投票型記事アテンション層を提案する。 この層を組み込んだモデルは、ニュース記事の潜在的なノイズに対して堅牢であり、ノイズの有無にかかわらず既存のベースラインを上回っていることを示す。 人間のラベルを組み込むことで、モデルをさらに強化することができ、遠隔監視アプローチによってラベル付きデータの需要を大幅に削減できることを示す。

Millions of news articles are published online every day, which can be overwhelming for readers to follow. Grouping articles that are reporting the same event into news stories is a common way of assisting readers in their news consumption. However, it remains a challenging research problem to efficiently and effectively generate a representative headline for each story. Automatic summarization of a document set has been studied for decades, while few studies have focused on generating representative headlines for a set of articles. Unlike summaries, which aim to capture most information with least redundancy, headlines aim to capture information jointly shared by the story articles in short length, and exclude information that is too specific to each individual article. In this work, we study the problem of generating representative headlines for news stories. We develop a distant supervision approach to train large-scale generation models without any human annotation. This approach centers on two technical components. First, we propose a multi-level pre-training framework that incorporates massive unlabeled corpus with different quality-vs.-quantity balance at different levels. We show that models trained within this framework outperform those trained with pure human curated corpus. Second, we propose a novel self-voting-based article attention layer to extract salient information shared by multiple articles. We show that models that incorporate this layer are robust to potential noises in news stories and outperform existing baselines with or without noises. We can further enhance our model by incorporating human labels, and we show our distant supervision approach significantly reduces the demand on labeled data.
翻訳日:2023-01-06 19:07:10 公開日:2020-04-13
# 深層学習による非線形2次元構造のトポロジー最適化

Topology optimization of 2D structures with nonlinearities using deep learning ( http://arxiv.org/abs/2002.01896v4 )

ライセンス: Link先を確認
Diab W. Abueidda, Seid Koric, Nahil A. Sobh(参考訳) 線形弾性構造の最適設計の分野は多くのエキサイティングな成功を経験し、新しい構造材料や構造設計をもたらした。 高性能コンピューティング、機械学習、シミュレーションを含むクラウドコンピューティングが利用可能になったことで、最適な非線形構造を探すことができるようになった。 本研究では,与えられた境界条件,負荷,最適化制約に対する最適化設計を予測するための畳み込みニューラルネットワークモデルを開発する。 応力制約のない線形弾性応答を有する材料の場合について検討した。 また、材料と幾何学的非線形性が関与する超弾性応答を持つ材料についても検討した。 非線形弾性の場合、ネオ・フックモデルが用いられる。 この目的のために、トポロジ最適化フレームワークを用いて、対応する境界条件、負荷、制約と組み合わせた最適化設計からなるデータセットを生成し、ニューラルネットワークモデルのトレーニングと検証を行う。 開発したモデルは、反復的なスキームや無視可能な推論計算時間を必要とすることなく、最適化された設計を正確に予測することができる。 提案したパイプラインは他の非線形力学シナリオや設計領域に一般化することができる。

The field of optimal design of linear elastic structures has seen many exciting successes that resulted in new architected materials and structural designs. With the availability of cloud computing, including high-performance computing, machine learning, and simulation, searching for optimal nonlinear structures is now within reach. In this study, we develop convolutional neural network models to predict optimized designs for a given set of boundary conditions, loads, and optimization constraints. We have considered the case of materials with a linear elastic response with and without stress constraint. Also, we have considered the case of materials with a hyperelastic response, where material and geometric nonlinearities are involved. For the nonlinear elastic case, the neo-Hookean model is utilized. For this purpose, we generate datasets composed of the optimized designs paired with the corresponding boundary conditions, loads, and constraints, using a topology optimization framework to train and validate the neural network models. The developed models are capable of accurately predicting the optimized designs without requiring an iterative scheme and with negligible inference computational time. The suggested pipeline can be generalized to other nonlinear mechanics scenarios and design domains.
翻訳日:2023-01-05 07:07:36 公開日:2020-04-13
# 大規模MIMOチャネル状態取得とフィードバックのための深層学習

Deep Learning for Massive MIMO Channel State Acquisition and Feedback ( http://arxiv.org/abs/2002.06945v3 )

ライセンス: Link先を確認
Mahdi Boloursaz Mashhadi, and Deniz G\"und\"uz(参考訳) 大規模マルチインプット・マルチアウトプット(MIMO)システムは、5Gおよび将来の無線ネットワークにおける過大なスループット要件を実現し、多くのユーザが高いスペクトルとエネルギー効率で同時に利用できる。 これを実現するために、大規模なMIMOシステムは、パイロットトランスミッション、CSI推定、フィードバックを含むトレーニングプロセスによって取得される正確でタイムリーなチャネル状態情報(CSI)を必要とする。 このトレーニングプロセスでは、アンテナ、ユーザ、サブキャリアの数に応じてスケールするトレーニングオーバーヘッドが発生する。 大規模MIMOシステムにおけるこのトレーニングオーバーヘッドの削減は、この概念の出現以来、主要な研究課題となっている。 近年,大規模なMIMOトレーニングのためのディープラーニング(DL)ベースのアプローチが提案され,従来の手法と比較して大幅に改善されている。 本稿では,大規模MIMOシステムのトレーニングプロセスにおけるニューラルネットワーク(NN)の利用方法の概要について述べる。

Massive multiple-input multiple-output (MIMO) systems are a main enabler of the excessive throughput requirements in 5G and future generation wireless networks as they can serve many users simultaneously with high spectral and energy efficiency. To achieve this, massive MIMO systems require accurate and timely channel state information (CSI), which is acquired by a training process that involves pilot transmission, CSI estimation and feedback. This training process incurs a training overhead, which scales with the number of antennas, users and subcarriers. Reducing this training overhead in massive MIMO systems has been a major topic of research since the emergence of the concept. Recently, deep learning (DL)-based approaches for massive MIMO training have been proposed and showed significant improvements compared to traditional techniques. This paper provides an overview of how neural networks (NNs) can be used in the training process of massive MIMO systems to improve the performance by reducing the CSI acquisition overhead and to reduce complexity.
翻訳日:2022-12-31 12:43:47 公開日:2020-04-13
# ディファレンシャルプライバシのリスク - ランダム性とプライバシ予算の橋渡し

Differential Privacy at Risk: Bridging Randomness and Privacy Budget ( http://arxiv.org/abs/2003.00973v2 )

ライセンス: Link先を確認
Ashish Dandekar, Debabrota Basu, Stephane Bressan(参考訳) プライバシ保存機構のノイズのキャリブレーションは、クエリの感度と所定のプライバシレベルに依存する。 データスチュワードは、ユーザの要求とビジネスエンティティの金銭的制約のバランスをとるプライバシーレベルの非自明な選択をしなければならない。 本稿では,プライバシ保存機構の設計に関与するノイズ分布とデータ生成分布による暗黙的ランダム性に起因した明示的ランダム性というランダム性源の役割について分析する。 より詳細な分析により、定量化可能なリスクでより強力なプライバシー保証を提供できる。 そこで我々は,プライバシ保護機構の確率的校正を行うリスクのあるプライバシを提案する。 我々は、プライバシーを危険にさらす合成定理を提供する。 解析結果を提供することにより,ラプラス機構の確率的校正を行う。 また、GDPR準拠の企業において、プライバシレベルと補償予算とのギャップを埋めるコストモデルを提案する。 提案したコストモデルの凸性は、補償予算を最小化する独自のプライバシーレベルの調整につながる。 ラプラス機構のリスクにプライバシを使用することで、補償予算の過大評価を避ける現実的なシナリオを図示することで、その効果を示す。 コスト最適プライバシを用いた構成が、古典的な高度な構成よりも高いプライバシー保証を提供することを定量的に示す。

The calibration of noise for a privacy-preserving mechanism depends on the sensitivity of the query and the prescribed privacy level. A data steward must make the non-trivial choice of a privacy level that balances the requirements of users and the monetary constraints of the business entity. We analyse roles of the sources of randomness, namely the explicit randomness induced by the noise distribution and the implicit randomness induced by the data-generation distribution, that are involved in the design of a privacy-preserving mechanism. The finer analysis enables us to provide stronger privacy guarantees with quantifiable risks. Thus, we propose privacy at risk that is a probabilistic calibration of privacy-preserving mechanisms. We provide a composition theorem that leverages privacy at risk. We instantiate the probabilistic calibration for the Laplace mechanism by providing analytical results. We also propose a cost model that bridges the gap between the privacy level and the compensation budget estimated by a GDPR compliant business entity. The convexity of the proposed cost model leads to a unique fine-tuning of privacy level that minimises the compensation budget. We show its effectiveness by illustrating a realistic scenario that avoids overestimation of the compensation budget by using privacy at risk for the Laplace mechanism. We quantitatively show that composition using the cost optimal privacy at risk provides stronger privacy guarantee than the classical advanced composition.
翻訳日:2022-12-27 05:06:33 公開日:2020-04-13
# SAM:ハイパーパラメータへの属性法の感度

SAM: The Sensitivity of Attribution Methods to Hyperparameters ( http://arxiv.org/abs/2003.08754v2 )

ライセンス: Link先を確認
Naman Bansal, Chirag Agarwal, Anh Nguyen(参考訳) アトリビューションメソッドは、分類器の決定の理由に関する強力な洞察を提供することができる。 説明手法の重要なデシプラタムは、しばしばランダムに設定または経験的に調整されるハイパーパラメータ入力の堅牢性である。 任意のハイパーパラメータの選択に対する高い感度は再現性を妨げるだけでなく、説明の正確性にも疑問を呈し、エンドユーザの信頼を損なう。 本稿では,既存の帰属法の感度に関する徹底的な実証研究を行う。 私たちは、多くのメソッドが共通のハイパーパラメータの変化に非常に敏感である、例えばランダムなシードの変更でさえ、異なる説明をもたらす可能性がある、という警告の傾向を発見した。 興味深いことに、この感度は、文献で一般的に報告されているように、データセット上の平均説明精度スコアには反映されない。 さらに、ロバストな分類器(つまり、ピクセル毎の摂動に不変であるように訓練された)で生成される説明は、通常の分類器で生成された説明よりも驚くほど堅牢である。

Attribution methods can provide powerful insights into the reasons for a classifier's decision. We argue that a key desideratum of an explanation method is its robustness to input hyperparameters which are often randomly set or empirically tuned. High sensitivity to arbitrary hyperparameter choices does not only impede reproducibility but also questions the correctness of an explanation and impairs the trust of end-users. In this paper, we provide a thorough empirical study on the sensitivity of existing attribution methods. We found an alarming trend that many methods are highly sensitive to changes in their common hyperparameters e.g. even changing a random seed can yield a different explanation! Interestingly, such sensitivity is not reflected in the average explanation accuracy scores over the dataset as commonly reported in the literature. In addition, explanations generated for robust classifiers (i.e. which are trained to be invariant to pixel-wise perturbations) are surprisingly more robust than those generated for regular classifiers.
翻訳日:2022-12-26 12:42:41 公開日:2020-04-13
# 変動目的関数をもつスパースガウス過程における結び目選択

Knot Selection in Sparse Gaussian Processes with a Variational Objective Function ( http://arxiv.org/abs/2003.02729v2 )

ライセンス: Link先を確認
Nathaniel Garton and Jarad Niemi and Alicia Carriquiry(参考訳) まばらで結び目に基づくガウス過程は、完全なガウス過程へのスケーラブルな近似としてかなりの成功を収めた。 あるスパースモデルは、真の後方への特定の変分近似によって導出することができ、結び目は、近似と真の後方の間のクルバック・リーバーの発散を最小化するために選択することができる。 これは成功したアプローチであるが、最適化されるパラメータの数のため、結び目の同時最適化は遅くなる可能性がある。 また、結び目数を選択する方法も提案されておらず、文献に実験結果が残っていない。 ベイズ最適化に基づく一対一の結び目選択アルゴリズムを用いて、結び目の数と位置を選択する。 本稿では,3つのベンチマークデータセット上での結び目の同時最適化に対して,この手法の競合性能を示すが,計算コストのごく一部に留まる。

Sparse, knot-based Gaussian processes have enjoyed considerable success as scalable approximations to full Gaussian processes. Certain sparse models can be derived through specific variational approximations to the true posterior, and knots can be selected to minimize the Kullback-Leibler divergence between the approximate and true posterior. While this has been a successful approach, simultaneous optimization of knots can be slow due to the number of parameters being optimized. Furthermore, there have been few proposed methods for selecting the number of knots, and no experimental results exist in the literature. We propose using a one-at-a-time knot selection algorithm based on Bayesian optimization to select the number and locations of knots. We showcase the competitive performance of this method relative to simultaneous optimization of knots on three benchmark data sets, but at a fraction of the computational cost.
翻訳日:2022-12-26 06:33:06 公開日:2020-04-13
# コンテキスト埋め込みに関する調査

A Survey on Contextual Embeddings ( http://arxiv.org/abs/2003.07278v2 )

ライセンス: Link先を確認
Qi Liu, Matt J. Kusner, Phil Blunsom(参考訳) ELMoやBERTのようなコンテキスト埋め込みは、Word2Vecのようなグローバルなワード表現を超えて、幅広い自然言語処理タスクにおいて画期的なパフォーマンスを達成する。 文脈埋め込みは、各単語にその文脈に基づいて表現を割り当て、それによって様々な文脈にわたる単語の使用を捉え、言語間で伝達される知識を符号化する。 本稿では,既存の文脈埋め込みモデル,言語間多言語事前学習,下流タスクにおける文脈埋め込みの適用,モデル圧縮,モデル解析について述べる。

Contextual embeddings, such as ELMo and BERT, move beyond global word representations like Word2Vec and achieve ground-breaking performance on a wide range of natural language processing tasks. Contextual embeddings assign each word a representation based on its context, thereby capturing uses of words across varied contexts and encoding knowledge that transfers across languages. In this survey, we review existing contextual embedding models, cross-lingual polyglot pre-training, the application of contextual embeddings in downstream tasks, model compression, and model analyses.
翻訳日:2022-12-23 02:29:25 公開日:2020-04-13
# 強化詩人:学習課題の無制限発明とその解決を通した拡張強化学習

Enhanced POET: Open-Ended Reinforcement Learning through Unbounded Invention of Learning Challenges and their Solutions ( http://arxiv.org/abs/2003.08536v2 )

ライセンス: Link先を確認
Rui Wang, Joel Lehman, Aditya Rawal, Jiale Zhi, Yulun Li, Jeff Clune, Kenneth O. Stanley(参考訳) オープンエンドのアルゴリズムを作ることは、機械学習の進歩を自動化し、加速させるのに役立つだろう。 この方向の最近のステップは、Paired Open-Ended Trailblazer (POET) である。これは、独自の課題を生成し、解決するアルゴリズムであり、ローカルな最適化を避けるために、課題間でゴール・スウィッチのソリューションを可能にする。 しかし、オリジナルのPOETはアルゴリズム自体の限界や、限られた問題空間や普遍的な進歩尺度の欠如といった外部問題のために、その完全な創造可能性を示すことができなかった。 重要なことに、どちらの制限もPOETだけでなく、一般に開放性追求の障害となる。 ここでは、元のアルゴリズムに2つの新しいイノベーションと、その潜在能力を解明するために設計された2つの外部イノベーションを紹介し、実証的に検証する。 これら4つの進歩は、これまでで最もオープンなアルゴリズム実証を可能にする。 アルゴリズム上の革新は、(1)新しい課題がどれほど有意義に新しいものになり得るかというドメイン一般の尺度、(2)エージェントがいつある問題から別の問題にゴールを切り替えるべきかを決定するための効率的なヒューリスティック(オープンエンド検索より良いスケールの助け)である。 アルゴリズムの外部では, オープン・リミットネスのより明確な実証を可能にするために, (3) 環境課題をエンコードする新しい, より柔軟な方法, (4) システムがオープン・リミテッド・イノベーションを継続する範囲の汎用的な尺度を紹介する。 強化されたPOETは多様な高度な行動を生み出し、様々な環境課題を解決するが、その多くは他の方法では解決できない。

Creating open-ended algorithms, which generate their own never-ending stream of novel and appropriately challenging learning opportunities, could help to automate and accelerate progress in machine learning. A recent step in this direction is the Paired Open-Ended Trailblazer (POET), an algorithm that generates and solves its own challenges, and allows solutions to goal-switch between challenges to avoid local optima. However, the original POET was unable to demonstrate its full creative potential because of limitations of the algorithm itself and because of external issues including a limited problem space and lack of a universal progress measure. Importantly, both limitations pose impediments not only for POET, but for the pursuit of open-endedness in general. Here we introduce and empirically validate two new innovations to the original algorithm, as well as two external innovations designed to help elucidate its full potential. Together, these four advances enable the most open-ended algorithmic demonstration to date. The algorithmic innovations are (1) a domain-general measure of how meaningfully novel new challenges are, enabling the system to potentially create and solve interesting challenges endlessly, and (2) an efficient heuristic for determining when agents should goal-switch from one problem to another (helping open-ended search better scale). Outside the algorithm itself, to enable a more definitive demonstration of open-endedness, we introduce (3) a novel, more flexible way to encode environmental challenges, and (4) a generic measure of the extent to which a system continues to exhibit open-ended innovation. Enhanced POET produces a diverse range of sophisticated behaviors that solve a wide range of environmental challenges, many of which cannot be solved through other means.
翻訳日:2022-12-22 03:47:33 公開日:2020-04-13
# mri画像を用いた深層学習による前十字靭帯損傷の階層的重症化

Hierarchical Severity Staging of Anterior Cruciate Ligament Injuries using Deep Learning with MRI Images ( http://arxiv.org/abs/2003.09089v2 )

ライセンス: Link先を確認
Nikan K. Namiri, Io Flament, Bruno Astuto, Rutwik Shah, Radhika Tibrewala, Francesco Caliva, Thomas M. Link, Valentina Pedoia, Sharmila Majumdar(参考訳) 目的:前十字靭帯損傷(ACL)の重症化に対する2つの畳み込みニューラルネットワーク(CNN)の診断の有用性を評価すること。 対象と方法:2011年から2014年に獲得した224例(47歳/14歳,女性54%)の1243例の膝関節MRI像(1008例,18例,全破傷77例,再建ACL140例)を振り返って分析した。 放射線学者は測定基準を変更した。 深層学習によるACL損傷の分類には,3次元(3D)と2次元(2D)畳み込みカーネル(2D)の2種類のCNNが用いられた。 パフォーマンス指標には感度、特異性、コーエンのカッパの重み付け、全体的な精度、CNNのパフォーマンスを比較するマクネマールのテストなどがある。 結果: ACL損傷分類におけるCohen's kappaは, 3D CNN (精度: 92% (233/254) , Kaappa: 0.83) より2D CNN (精度: 89% (225/254) , Kaappa: 0.83 (P = .27) の方が高い値を示した。 2D CNNと3D CNNも同様に無傷ACL(2D CNN: 93% (188/203) 感受性と90% (46/51) 特異性、3D CNN: 89% (180/203) 感受性と88% (45/51) 特異性)の分類を行った。 2d cnn: 82% (14/17) 感度 94% (222/237) 特異性 3d cnn: 76% (13/17) 感度と 100% (236/237) 特異性である。 2D CNNは再建されたACLを正しく分類した。 結論: acl病変分類における2dおよび3d cnnの感度および特異性は高く,非熟練者によるacl損傷の診断に有用であることが示唆された。

Purpose: To evaluate the diagnostic utility of two convolutional neural networks (CNNs) for severity staging of anterior cruciate ligament (ACL) injuries. Materials and Methods: This retrospective analysis was conducted on 1243 knee MR images (1008 intact, 18 partially torn, 77 fully torn, and 140 reconstructed ACLs) from 224 patients (age 47 +/- 14 years, 54% women) acquired between 2011 and 2014. The radiologists used a modified scoring metric. To classify ACL injuries with deep learning, two types of CNNs were used, one with three-dimensional (3D) and the other with two-dimensional (2D) convolutional kernels. Performance metrics included sensitivity, specificity, weighted Cohen's kappa, and overall accuracy, followed by McNemar's test to compare the CNNs performance. Results: The overall accuracy and weighted Cohen's kappa reported for ACL injury classification were higher using the 2D CNN (accuracy: 92% (233/254) and kappa: 0.83) than the 3D CNN (accuracy: 89% (225/254) and kappa: 0.83) (P = .27). The 2D CNN and 3D CNN performed similarly in classifying intact ACLs (2D CNN: 93% (188/203) sensitivity and 90% (46/51) specificity; 3D CNN: 89% (180/203) sensitivity and 88% (45/51) specificity). Classification of full tears by both networks were also comparable (2D CNN: 82% (14/17) sensitivity and 94% (222/237) specificity; 3D CNN: 76% (13/17) sensitivity and 100% (236/237) specificity). The 2D CNN classified all reconstructed ACLs correctly. Conclusion: 2D and 3D CNNs applied to ACL lesion classification had high sensitivity and specificity, suggesting that these networks could be used to help grade ACL injuries by non-experts.
翻訳日:2022-12-21 22:26:46 公開日:2020-04-13
# 強化GloVeワード埋め込みによる消費者健康語彙の充実

Enriching Consumer Health Vocabulary Using Enhanced GloVe Word Embedding ( http://arxiv.org/abs/2004.00150v2 )

ライセンス: Link先を確認
Mohammed Ibrahim, Susan Gauch, Omar Salman, Mohammed Alqahatani(参考訳) Open-Access and Collaborative Consumer Health Vocabulary (OAC CHV、略してCHV)は、平易な英語で書かれた医学用語の集合体である。 これは、平民が同等の専門的な医療用語よりもむしろ好む単純で簡単で明確な用語のリストを提供する。 国立医学図書館(NLM)は、CHV用語をUMLS(Unified Medical Language System)に統合し、マッピングしている。 これらのCHV用語はUMLS上の56000のプロフェッショナルな概念にマッピングされた。 これらのレイメンの用語の約48%は、まだジャーゴンであり、UMLSの専門用語と一致していることがわかった。 本稿では,消費者生成テキストから新たなCHV語を生成する拡張単語埋め込み手法を提案する。 我々は,医療ソーシャルメディアからコーパスをダウンロードし,既存のCHV用語から構築した真理を用いて,反復的なフィードバックから単語埋め込みまでの新しい手法を評価した。 フィードバックアルゴリズムは未修正GLoVeよりも優れており,新しいCHV項が検出されている。

Open-Access and Collaborative Consumer Health Vocabulary (OAC CHV, or CHV for short), is a collection of medical terms written in plain English. It provides a list of simple, easy, and clear terms that laymen prefer to use rather than an equivalent professional medical term. The National Library of Medicine (NLM) has integrated and mapped the CHV terms to their Unified Medical Language System (UMLS). These CHV terms mapped to 56000 professional concepts on the UMLS. We found that about 48% of these laymen's terms are still jargon and matched with the professional terms on the UMLS. In this paper, we present an enhanced word embedding technique that generates new CHV terms from a consumer-generated text. We downloaded our corpus from a healthcare social media and evaluated our new method based on iterative feedback to word embedding using ground truth built from the existing CHV terms. Our feedback algorithm outperformed unmodified GLoVe and new CHV terms have been detected.
翻訳日:2022-12-17 23:54:13 公開日:2020-04-13
# CT画像における突然変異予測と分類のためのピラミッド焦点ネットワーク

Pyramid Focusing Network for mutation prediction and classification in CT images ( http://arxiv.org/abs/2004.03302v2 )

ライセンス: Link先を確認
Xukun Zhang and Wenxin Hu and Wen Wu(参考訳) 腫瘍における遺伝子変異の予測は、非常に臨床的に重要である。 近年の研究ではCT(CT)データから腫瘍の像の特徴を研究することにより,特定の変異が非侵襲的に予測できる可能性が示唆されている。 現在, この種の画像特徴識別法は, 画像の特徴のみを抽出する手動処理や, あるいは機械処理に頼っており, 腫瘍自体の形態的差異を考慮せず, さらなるブレークスルーを実現することは困難である。 本稿では,CT画像に基づく突然変異予測と分類のためのピラミッド集束ネットワーク(PFNet)を提案する。 まず, 腫瘍の形状や大きさが変化しているという観察に基づいて, 複数の尺度から特徴マップのセマンティックな手がかりを収集するために, スペースピラミッドプーリングを用いて, 適切な突然変異検出に必要な特徴がしばしば腫瘍縁の断面で明らかでないことを考慮して, 損失関数を改良し, ネットワーク内のこれらの困難事例に注意を喚起する。 最後に、ネットワークの一般化能力を高めるために、データ拡張に基づくトレーニングスキームを考案する。 63648CT画像を用いた20検体の臨床胃CTデータセットにおいて,HER-2遺伝子変異の予測精度は94.90%であった。

Predicting the mutation status of genes in tumors is of great clinical significance. Recent studies have suggested that certain mutations may be noninvasively predicted by studying image features of the tumors from Computed Tomography (CT) data. Currently, this kind of image feature identification method mainly relies on manual processing to extract generalized image features alone or machine processing without considering the morphological differences of the tumor itself, which makes it difficult to achieve further breakthroughs. In this paper, we propose a pyramid focusing network (PFNet) for mutation prediction and classification based on CT images. Firstly, we use Space Pyramid Pooling to collect semantic cues in feature maps from multiple scales according to the observation that the shape and size of the tumors are varied.Secondly, we improve the loss function based on the consideration that the features required for proper mutation detection are often not obvious in cross-sections of tumor edges, which raises more attention to these hard examples in the network. Finally, we devise a training scheme based on data augmentation to enhance the generalization ability of networks. Extensively verified on clinical gastric CT datasets of 20 testing volumes with 63648 CT images, our method achieves the accuracy of 94.90% in predicting the HER-2 genes mutation status of at the CT image.
翻訳日:2022-12-16 00:26:20 公開日:2020-04-13
# k-vertex d-ポリトープのvc次元

The VC-dimension of k-vertex d-polytopes ( http://arxiv.org/abs/2004.04841v2 )

ライセンス: Link先を確認
Andrey Kupavskii(参考訳) ここでは、$\mathbb R^d$ の $k$-vertex polytopes クラスの VC-次元は、少なくとも 8d^2k\log_2k$ であり、Long と Warmuth の古い疑問に答える。

In this short note, we show that the VC-dimension of the class of $k$-vertex polytopes in $\mathbb R^d$ is at most $8d^2k\log_2k$, answering an old question of Long and Warmuth.
翻訳日:2022-12-15 03:34:51 公開日:2020-04-13
# グラフ畳み込みネットワークによるロバストラインセグメントマッチング

Robust Line Segments Matching via Graph Convolution Networks ( http://arxiv.org/abs/2004.04993v2 )

ライセンス: Link先を確認
QuanMeng Ma, Guang Jiang and DianZhi Lai(参考訳) ラインマッチングは、特に低テクスチャと反復シーンにおいて、動き(SFM)と同時局所化とマッピング(SLAM)の構造において重要な役割を果たす。 本稿では,グラフ畳み込みネットワークを用いて一対のイメージ内の線分をマッチングし,最適輸送問題に緩和して線分をマッチングするグラフベースの戦略を設計する。 手作りのラインマッチングアルゴリズムとは対照的に、このアプローチでは、エンドツーエンドのトレーニングを通じて、ローカルラインセグメント記述子とマッチングを同時に学習する。 その結果,本手法は最先端技術よりも優れており,特にリコールの精度は45.28%から70.47%に向上した。 私たちの仕事のコードはhttps://github.com/mameng1/graphlinematchingで閲覧できます。

Line matching plays an essential role in structure from motion (SFM) and simultaneous localization and mapping (SLAM), especially in low-textured and repetitive scenes. In this paper, we present a new method of using a graph convolution network to match line segments in a pair of images, and we design a graph-based strategy of matching line segments with relaxing to an optimal transport problem. In contrast to hand-crafted line matching algorithms, our approach learns local line segment descriptor and the matching simultaneously through end-to-end training. The results show our method outperforms the state-of-the-art techniques, and especially, the recall is improved from 45.28% to 70.47% under a similar presicion. The code of our work is available at https://github.com/mameng1/GraphLineMatching.
翻訳日:2022-12-14 21:11:29 公開日:2020-04-13
# コード混合会話からの自然言語推論のための新しいデータセット

A New Dataset for Natural Language Inference from Code-mixed Conversations ( http://arxiv.org/abs/2004.05051v2 )

ライセンス: Link先を確認
Simran Khanuja, Sandipan Dandapat, Sunayana Sitaram, Monojit Choudhury(参考訳) 自然言語推論(英: natural language inference、nli)は、前提と仮説の間の論理的関係を推論するタスクである。 コード混合(code-mixing)は、同じ会話や発話で複数の言語を使用することであり、世界中の多言語コミュニティで広く使われている。 本稿では,コード混合NLIのための最初のデータセットについて述べる。 ヒンディー語映画(ボリウッド)からのデータと、ヒンディー語と英語のバイリンガルによるクラウドソース仮説を用いている。 パイロットアノテーションの研究を行い、パイロットからの観察に基づいて最終アノテーションプロトコルを記述する。 現在、収集されたデータは、コードミキシングされた会話スニペットの400の前提と2240のコードミキシングされた仮説で構成されている。 得られたデータセットでよく見られる言語現象を推定するために,広範な分析を行う。 我々は,NLIのための標準mBERTパイプラインを用いてデータセットを評価し,その結果を報告する。

Natural Language Inference (NLI) is the task of inferring the logical relationship, typically entailment or contradiction, between a premise and hypothesis. Code-mixing is the use of more than one language in the same conversation or utterance, and is prevalent in multilingual communities all over the world. In this paper, we present the first dataset for code-mixed NLI, in which both the premises and hypotheses are in code-mixed Hindi-English. We use data from Hindi movies (Bollywood) as premises, and crowd-source hypotheses from Hindi-English bilinguals. We conduct a pilot annotation study and describe the final annotation protocol based on observations from the pilot. Currently, the data collected consists of 400 premises in the form of code-mixed conversation snippets and 2240 code-mixed hypotheses. We conduct an extensive analysis to infer the linguistic phenomena commonly observed in the dataset obtained. We evaluate the dataset using a standard mBERT-based pipeline for NLI and report results.
翻訳日:2022-12-14 20:53:08 公開日:2020-04-13
# ディファレンシャルプライバシによる敵対的ロバストなストリーミングアルゴリズム

Adversarially Robust Streaming Algorithms via Differential Privacy ( http://arxiv.org/abs/2004.05975v1 )

ライセンス: Link先を確認
Avinatan Hassidim, Haim Kaplan, Yishay Mansour, Yossi Matias, Uri Stemmer(参考訳) データストリームが悪意的に選択された場合でも、その精度保証が維持されている場合、適応的敵によってストリーミングアルゴリズムは逆向きに堅牢であると言われている。 我々は,ストリーミングアルゴリズムの敵対的ロバスト性とディファレンシャルプライバシの概念との関係性を確立する。 この接続により、多くの興味深いパラメータの条件に対して、現在の最先端構造よりも優れた、逆向きに堅牢な新しいストリーミングアルゴリズムを設計できる。

A streaming algorithm is said to be adversarially robust if its accuracy guarantees are maintained even when the data stream is chosen maliciously, by an adaptive adversary. We establish a connection between adversarial robustness of streaming algorithms and the notion of differential privacy. This connection allows us to design new adversarially robust streaming algorithms that outperform the current state-of-the-art constructions for many interesting regimes of parameters.
翻訳日:2022-12-14 00:39:01 公開日:2020-04-13
# ディープニューラルネットワークによるCMB時系列データの分類

Classifying CMB time-ordered data through deep neural networks ( http://arxiv.org/abs/2004.06226v1 )

ライセンス: Link先を確認
Felipe Rojas, Lo\"ic Maurin, Rolando D\"unner, Karim Pichara(参考訳) 宇宙マイクロ波背景(cmb)は広範囲のマルチポールで測定されている。 アタカマ宇宙望遠鏡(ACT)のような極小分解能の実験は、一次と二次の異方性の測定に寄与し、顕著な科学的発見をもたらした。 このような発見は、貧弱な検出器や不要な汚染物質を除去するために注意深いデータ選択を必要とする。 actが使用する現在のデータ分類手法は、専門家によって評価され、微調整されたいくつかの統計パラメータに依存している。 この方法は非常に時間がかかり、バンドや季節特化度が高いため、将来のCMB実験ではスケーラビリティが低く、効率が良い。 本研究では,CMB実験の検出器を分類するための教師付き機械学習モデルを提案する。 このモデルは深層畳み込みニューラルネットワークに対応する。 2008年シーズンの148GHzをACTデータ選択ソフトウェアが提供するラベルを用いたトレーニングセットとして,実ACTデータを用いて本手法を検証した。 モデルは、生データから直接始まるタイムストリームを分類することを学ぶ。 トレーニング中に考慮した季節と頻度について,分類器の精度は99.8%に達した。 2008年シーズンの220GHzと280GHzのデータでは、それぞれ99.4%と97.5%の精度を得た。 最後に、2009年と2010年の148GHzのデータに対して、それぞれ99.8%と99.5%の精度でクロスシーズンテストを行った。 私たちのモデルは現在のパイプラインの約10倍の速度で、リアルタイム実装に適しています。

The Cosmic Microwave Background (CMB) has been measured over a wide range of multipoles. Experiments with arc-minute resolution like the Atacama Cosmology Telescope (ACT) have contributed to the measurement of primary and secondary anisotropies, leading to remarkable scientific discoveries. Such findings require careful data selection in order to remove poorly-behaved detectors and unwanted contaminants. The current data classification methodology used by ACT relies on several statistical parameters that are assessed and fine-tuned by an expert. This method is highly time-consuming and band or season-specific, which makes it less scalable and efficient for future CMB experiments. In this work, we propose a supervised machine learning model to classify detectors of CMB experiments. The model corresponds to a deep convolutional neural network. We tested our method on real ACT data, using the 2008 season, 148 GHz, as training set with labels provided by the ACT data selection software. The model learns to classify time-streams starting directly from the raw data. For the season and frequency considered during the training, we find that our classifier reaches a precision of 99.8%. For 220 and 280 GHz data, season 2008, we obtained 99.4% and 97.5% of precision, respectively. Finally, we performed a cross-season test over 148 GHz data from 2009 and 2010 for which our model reaches a precision of 99.8% and 99.5%, respectively. Our model is about 10x faster than the current pipeline, making it potentially suitable for real-time implementations.
翻訳日:2022-12-14 00:38:28 公開日:2020-04-13
# 深部2ストリーム畳み込みネットワークを用いた画像超解像のブラインド品質評価

Blind Quality Assessment for Image Superresolution Using Deep Two-Stream Convolutional Networks ( http://arxiv.org/abs/2004.06163v1 )

ライセンス: Link先を確認
Wei Zhou, Qiuping Jiang, Yuwang Wang, Zhibo Chen, Weiping Li(参考訳) 空間分解能の低い入力画像から高分解能画像(HR)を再構成するための多数の画像超解像(SR)アルゴリズムが提案されている。 しかし、SR画像の知覚品質を効果的に評価することは、依然として困難な研究課題である。 本稿では,非参照深部ニューラルネットワークを用いたSR画像品質評価器(DeepSRQ)を提案する。 様々な歪SR画像のより識別的な特徴表現を学習するために,提案したDeepSRQは,変形構造とテクスチャSR画像の2つのサブコンポーネントを含む2ストリーム畳み込みネットワークである。 従来の画像歪みとは異なり、SR画像のアーチファクトは画像構造とテクスチャ品質の劣化を引き起こす。 そこで我々は,ある画像ストリームから特徴を直接学習する代わりに,SR入力の異なる特性をキャプチャする2ストリーム方式を選択する。 ヒト視覚システム(hvs)の特徴を考慮すると、構造ストリームは構造劣化の特徴抽出に焦点を合わせ、テクスチャストリームはテクスチャ分布の変化に焦点を合わせている。 さらに,学習データの強化とカテゴリーバランスの確保を目的として,さらなる改善のためのストライド適応クロッピング手法を提案する。 3つの公開SR画像品質データベースの実験結果から,最新の画像品質評価アルゴリズムと比較して提案手法の有効性と一般化性を示した。

Numerous image superresolution (SR) algorithms have been proposed for reconstructing high-resolution (HR) images from input images with lower spatial resolutions. However, effectively evaluating the perceptual quality of SR images remains a challenging research problem. In this paper, we propose a no-reference/blind deep neural network-based SR image quality assessor (DeepSRQ). To learn more discriminative feature representations of various distorted SR images, the proposed DeepSRQ is a two-stream convolutional network including two subcomponents for distorted structure and texture SR images. Different from traditional image distortions, the artifacts of SR images cause both image structure and texture quality degradation. Therefore, we choose the two-stream scheme that captures different properties of SR inputs instead of directly learning features from one image stream. Considering the human visual system (HVS) characteristics, the structure stream focuses on extracting features in structural degradations, while the texture stream focuses on the change in textural distributions. In addition, to augment the training data and ensure the category balance, we propose a stride-based adaptive cropping approach for further improvement. Experimental results on three publicly available SR image quality databases demonstrate the effectiveness and generalization ability of our proposed DeepSRQ method compared with state-of-the-art image quality assessment algorithms.
翻訳日:2022-12-14 00:37:52 公開日:2020-04-13
# 組み込みプラットフォーム上での機械学習を用いたパーキンソン病の歩行回復システム

Gait Recovery System for Parkinson's Disease using Machine Learning on Embedded Platforms ( http://arxiv.org/abs/2004.05811v1 )

ライセンス: Link先を確認
Gokul H., Prithvi Suresh, Hari Vignesh B, Pravin Kumaar R, Vineeth Vijayaraghavan(参考訳) フリーズ・オブ・ゲイト(FoG)はパーキンソン病(PD)と診断される患者に共通する歩行障害である。 これらの患者がFoGのエピソードから回復するためには、リズム聴覚刺激(RAS)が必要である。 筆者らは加速度センサ信号から機械学習(ML)サブシステムを用いてFOGイベントを検出するユビキタス組み込みシステムを提案する。 デバイス上で推論を行うことで、レイテンシやネットワーク接続依存性など、クラウドベースのシステムで一般的な問題を回避する。 使用したリソース効率の分類器は、標準MLシステムと比較して、モデルサイズ要件をおよそ400倍に削減し、最も優れた分類精度の1.3%のトレードオフを持つ。 上記のトレードオフは、マイクロコントローラベースのシステムを含む幅広い組み込みデバイスへのデプロイを容易にする。 提案する資源効率のよいMLモデルの最小モデルサイズは1.4KBで、平均リコールスコアは93.58%である。

Freezing of Gait (FoG) is a common gait deficit among patients diagnosed with Parkinson's Disease (PD). In order to help these patients recover from FoG episodes, Rhythmic Auditory Stimulation (RAS) is needed. The authors propose a ubiquitous embedded system that detects FOG events with a Machine Learning (ML) subsystem from accelerometer signals . By making inferences on-device, we avoid issues prevalent in cloud-based systems such as latency and network connection dependency. The resource-efficient classifier used, reduces the model size requirements by approximately 400 times compared to the best performing standard ML systems, with a trade-off of a mere 1.3% in best classification accuracy. The aforementioned trade-off facilitates deployability in a wide range of embedded devices including microcontroller based systems. The research also explores the optimization procedure to deploy the model on an ATMega2560 microcontroller with a minimum system latency of 44.5 ms. The smallest model size of the proposed resource efficient ML model was 1.4 KB with an average recall score of 93.58%.
翻訳日:2022-12-14 00:37:30 公開日:2020-04-13
# 再構成可能なインテリジェントサーフェスによるインテリジェントIoTのためのフェデレーション機械学習

Federated Machine Learning for Intelligent IoT via Reconfigurable Intelligent Surface ( http://arxiv.org/abs/2004.05843v1 )

ライセンス: Link先を確認
Kai Yang, Yuanming Shi, Yong Zhou, Zhanpeng Yang, Liqun Fu, and Wei Chen(参考訳) iot(intelligent internet-of-things)は、人工知能と高次元データ分析の進歩によって、"コネクテッドモノ(connected things)"から"コネクテッドインテリジェンス(connected intelligence)"に移行した。 これは、自動運転車、無人航空機、ヘルスケア、ロボティクス、サプライチェーンファイナンスなど、多くのエキサイティングなアプリケーションにおいて、インテリジェントIoTの可能性を最大限に活用する。 これらのアプリケーションは、大規模なリアルタイムデータで低レイテンシな決定を下すことができる革命的計算、通信、人工知能技術の開発を促進する。 この目的のために、デバイスプライバシとデータセキュリティを保証しつつ、ネットワークエッジのデータからインテリジェンスを分離するために、破壊的技術としてのフェデレーション機械学習が登場している。 しかしながら、通信帯域幅の制限は、無線チャネル上のフェデレーション機械学習におけるモデル集約の重要なボトルネックである。 本稿では、マルチアクセスチャネルの波形重畳特性を利用して、インテリジェントIoTネットワークのための無線計算に基づく通信効率の高いフェデレーション機械学習フレームワークを開発する。 再構成可能なインテリジェントサーフェスはさらに、無線伝搬環境を再構成することで信号強度を高め、モデル集約エラーを低減するために活用される。

Intelligent Internet-of-Things (IoT) will be transformative with the advancement of artificial intelligence and high-dimensional data analysis, shifting from "connected things" to "connected intelligence". This shall unleash the full potential of intelligent IoT in a plethora of exciting applications, such as self-driving cars, unmanned aerial vehicles, healthcare, robotics, and supply chain finance. These applications drive the need of developing revolutionary computation, communication and artificial intelligence technologies that can make low-latency decisions with massive real-time data. To this end, federated machine learning, as a disruptive technology, is emerged to distill intelligence from the data at network edge, while guaranteeing device privacy and data security. However, the limited communication bandwidth is a key bottleneck of model aggregation for federated machine learning over radio channels. In this article, we shall develop an over-the-air computation based communication-efficient federated machine learning framework for intelligent IoT networks via exploiting the waveform superposition property of a multi-access channel. Reconfigurable intelligent surface is further leveraged to reduce the model aggregation error via enhancing the signal strength by reconfiguring the wireless propagation environments.
翻訳日:2022-12-14 00:37:14 公開日:2020-04-13
# ソフトウェアエンジニアが取り組んでいることを理解する -- 作業項目予測チャレンジ

Understanding What Software Engineers Are Working on -- The Work-Item Prediction Challenge ( http://arxiv.org/abs/2004.06174v1 )

ライセンス: Link先を確認
Ralf L\"ammel, Alvin Kerber, and Liane Praza(参考訳) ソフトウェアエンジニア(開発者、インシデント対応者、プロダクションエンジニアなど)が何に取り組んでいるのかを理解することは難しい問題です。 i) エンジニアは,多数の疎結合ツール(おそらく数百)に依存している。 二 エンジニアが並行かつ比較的長時間のワークフローに従事すること。 ii) インフラストラクチャ(ログなど)は作業項目を完全に認識していないこと,iv) エンジニアリングプロセス(インシデント応答など)が明示的にモデル化されていないこと。 本稿では,代表的なシナリオに基づいて対応する「作業項目予測課題」を説明し,facebookにおける関連する取り組みを報告し,学習した教訓について議論し,プログラム理解,ソフトウェアリポジトリのマイニング,プロセスマイニング,マシンラーニングの手法を活用し,前進させ,組み合わせるための関連する作業についてレビューする。

Understanding what a software engineer (a developer, an incident responder, a production engineer, etc.) is working on is a challenging problem -- especially when considering the more complex software engineering workflows in software-intensive organizations: i) engineers rely on a multitude (perhaps hundreds) of loosely integrated tools; ii) engineers engage in concurrent and relatively long running workflows; ii) infrastructure (such as logging) is not fully aware of work items; iv) engineering processes (e.g., for incident response) are not explicitly modeled. In this paper, we explain the corresponding 'work-item prediction challenge' on the grounds of representative scenarios, report on related efforts at Facebook, discuss some lessons learned, and review related work to call to arms to leverage, advance, and combine techniques from program comprehension, mining software repositories, process mining, and machine learning.
翻訳日:2022-12-14 00:36:52 公開日:2020-04-13
# 低ランクカノニカルポリアディック分解を用いたモデル自由状態推定

Model-Free State Estimation Using Low-Rank Canonical Polyadic Decomposition ( http://arxiv.org/abs/2004.05741v1 )

ライセンス: Link先を確認
Ahmed S. Zamzam and Yajing Liu and Andrey Bernstein(参考訳) 電気グリッドは再生可能エネルギーの発生率が高いため、リアルタイムな状況認識に対処するために根本的な変化が必要である。 本稿では,テンソルのユニークな特性を用いて,分散ネットワークのためのモデルフリーな状況認識とエネルギー予測の枠組みを考案する。 この研究は、ネットワークの状態を3方向テンソルとして複数タイミングで定式化し、ネットワークの完全な状態情報を復元することでテンソルの全ての値を推定する。 約$\mu$phasor測定単位および/またはスマートメーターから得られた測定値から、状態テンソルの低ランク正準ポリアディック分解を用いて、未観測量の回復を行い、測定量の観測パターンを利用したテンソル計算問題として状態推定タスクを配置する。 スラブサンプリングと繊維サンプリングの2つの構造的サンプリング方式が検討されている。 いずれのスキームについても, 状態テンソルの因子の同定性を保証するサンプルスラブ数と繊維数について十分な条件を示す。 提案手法は,複数のサンプリングシナリオにおいて高い推定精度を達成することができることを示す。

As electric grids experience high penetration levels of renewable generation, fundamental changes are required to address real-time situational awareness. This paper uses unique traits of tensors to devise a model-free situational awareness and energy forecasting framework for distribution networks. This work formulates the state of the network at multiple time instants as a three-way tensor; hence, recovering full state information of the network is tantamount to estimating all the values of the tensor. Given measurements received from $\mu$phasor measurement units and/or smart meters, the recovery of unobserved quantities is carried out using the low-rank canonical polyadic decomposition of the state tensor---that is, the state estimation task is posed as a tensor imputation problem utilizing observed patterns in measured quantities. Two structured sampling schemes are considered: slab sampling and fiber sampling. For both schemes, we present sufficient conditions on the number of sampled slabs and fibers that guarantee identifiability of the factors of the state tensor. Numerical results demonstrate the ability of the proposed framework to achieve high estimation accuracy in multiple sampling scenarios.
翻訳日:2022-12-14 00:36:08 公開日:2020-04-13
# 語彙情報を用いた話者ダイアリゼーション

Speaker Diarization with Lexical Information ( http://arxiv.org/abs/2004.06756v1 )

ライセンス: Link先を確認
Tae Jin Park, Kyu J. Han, Jing Huang, Xiaodong He, Bowen Zhou, Panayiotis Georgiou and Shrikanth Narayanan(参考訳) 本研究では,音声認識による語彙情報を活用した話者ダイアリゼーション手法を提案する。 本稿では,話者クラスタリングプロセスに単語レベルの話者回転確率を組み込んだ話者ダイアリゼーションシステムを提案し,全体的なダイアリゼーション精度を向上させる。 クラスタリング中の語彙情報と音響情報を包括的に統合するために,スペクトルクラスタリングのための隣接行列統合を提案する。 単語レベル話者回転確率推定のための単語と単語境界情報は音声認識システムによって提供されるため,提案手法は人手による書き起こしを必要とせず動作する。 提案手法は,話者埋め込みのみの音響情報を用いたベースラインダイアリゼーションシステムと比較して,各種評価データセットのダイアリゼーション性能を向上させる。

This work presents a novel approach for speaker diarization to leverage lexical information provided by automatic speech recognition. We propose a speaker diarization system that can incorporate word-level speaker turn probabilities with speaker embeddings into a speaker clustering process to improve the overall diarization accuracy. To integrate lexical and acoustic information in a comprehensive way during clustering, we introduce an adjacency matrix integration for spectral clustering. Since words and word boundary information for word-level speaker turn probability estimation are provided by a speech recognition system, our proposed method works without any human intervention for manual transcriptions. We show that the proposed method improves diarization performance on various evaluation datasets compared to the baseline diarization system using acoustic information only in speaker embeddings.
翻訳日:2022-12-14 00:31:07 公開日:2020-04-13
# 超解像のためのマルチモーダルデータセット

Multi-modal Datasets for Super-resolution ( http://arxiv.org/abs/2004.05804v1 )

ライセンス: Link先を確認
Haoran Li, Weihong Quan, Meijun Yan, Jin zhang, Xiaoli Gong and Jin Zhou(参考訳) 現在、スーパーレゾリューションモデルのトレーニングや評価に使用されるデータセットのほとんどは、シングルモーダルシミュレーションデータセットである。 しかし、実世界の様々な画像劣化タイプのため、単一モーダルシミュレーションデータセットで訓練されたモデルは、異なる劣化シナリオにおける優れた堅牢性と一般化能力を持つとは限らない。 以前の作業では、真のカラー画像のみに焦点を当てる傾向があった。 対照的に,我々はまず,手作業で画素を満たし,異なるカメラで撮影する2つの方法を用いて,超高解像度(oid-rw)のための実世界の白黒写真データセットを提案した。 データセットには82のイメージグループが含まれており、22のキャラクタタイプと60のランドスケープとアーキテクチャが含まれている。 また,マルチモーダル画像分解データセット(MDD400)を提案する。 補間アルゴリズム, cnnネットワーク, ganネットワーク, 異なるビットレートのビデオ撮影の4つの手法により, 劣化画像の生成過程をシミュレートすることができた。 我々の実験は、データセットでトレーニングされたモデルが、より良い一般化能力と堅牢性を持つだけでなく、訓練された画像がより良いエッジ輪郭とテクスチャ特性を維持することができることを示した。

Nowdays, most datasets used to train and evaluate super-resolution models are single-modal simulation datasets. However, due to the variety of image degradation types in the real world, models trained on single-modal simulation datasets do not always have good robustness and generalization ability in different degradation scenarios. Previous work tended to focus only on true-color images. In contrast, we first proposed real-world black-and-white old photo datasets for super-resolution (OID-RW), which is constructed using two methods of manually filling pixels and shooting with different cameras. The dataset contains 82 groups of images, including 22 groups of character type and 60 groups of landscape and architecture. At the same time, we also propose a multi-modal degradation dataset (MDD400) to solve the super-resolution reconstruction in real-life image degradation scenarios. We managed to simulate the process of generating degraded images by the following four methods: interpolation algorithm, CNN network, GAN network and capturing videos with different bit rates. Our experiments demonstrate that not only the models trained on our dataset have better generalization capability and robustness, but also the trained images can maintain better edge contours and texture features.
翻訳日:2022-12-14 00:30:53 公開日:2020-04-13
# リアルタイム視覚タスクのための効率的なUAVベース人工知能フレームワーク

An Efficient UAV-based Artificial Intelligence Framework for Real-Time Visual Tasks ( http://arxiv.org/abs/2004.06154v1 )

ライセンス: Link先を確認
Enkhtogtokh Togootogtokh, Christian Micheloni, Gian Luca Foresti, Niki Martinel(参考訳) state of the art artificial intelligence(ai)技術を搭載した現代の無人航空機は、多くの新しい興味深い応用に開放されている。 この分野は最近のAIのブレークスルーから強い影響を受けているが、提供されたソリューションのほとんどは商用ソフトウェアに依存しているか、追加技術の開発を否定する弱い統合インターフェースを提供する。 これにより,UAV-AIジョイント技術の新規かつ効率的な枠組みを提案する。 インテリジェントUAVシステムは、人間の制御なしに対処すべき複雑な課題に直面する。 これらの複雑な課題の1つは、リアルタイムのユースケースでコンピュータビジョンタスクを実行できることである。 本稿では,この課題に焦点をあて,アドホックなビジュアルベースAIアプリケーションを容易に統合するための多層AI(MLAI)フレームワークを導入する。 特徴とその利点を示すために,オブジェクト検出,目標追跡,ターゲットハンドオーバのための,現代の視覚的深層学習モデルを実装し,評価した。

Modern Unmanned Aerial Vehicles equipped with state of the art artificial intelligence (AI) technologies are opening to a wide plethora of novel and interesting applications. While this field received a strong impact from the recent AI breakthroughs, most of the provided solutions either entirely rely on commercial software or provide a weak integration interface which denies the development of additional techniques. This leads us to propose a novel and efficient framework for the UAV-AI joint technology. Intelligent UAV systems encounter complex challenges to be tackled without human control. One of these complex challenges is to be able to carry out computer vision tasks in real-time use cases. In this paper we focus on this challenge and introduce a multi-layer AI (MLAI) framework to allow easy integration of ad-hoc visual-based AI applications. To show its features and its advantages, we implemented and evaluated different modern visual-based deep learning models for object detection, target tracking and target handover.
翻訳日:2022-12-14 00:30:31 公開日:2020-04-13
# ファジィc-meansの最適ファジィ化係数ベクトルによる再構成性能の増強

Augmentation of the Reconstruction Performance of Fuzzy C-Means with an Optimized Fuzzification Factor Vector ( http://arxiv.org/abs/2004.05764v1 )

ライセンス: Link先を確認
Kaijie Xu, Witold Pedrycz, Zhiwu Li(参考訳) 情報顆粒は粒状コンピューティング(grc)の基本構造であると考えられている。 Fuzzy C-Means(FCM)は、教師なし学習手法として、情報グラニュラーを構築するのに最もよく使われる手法の1つである。 fcmベースの顆粒分化機構はgrcにおいて重要な役割を担っている。 本稿では, 脱粒(再構成)プロセスの品質を向上させるため, fcmベースの脱粒機構を改良し, 脱粒因子のベクトル(不溶化係数ベクトル)を導入し, プロトタイプと分配行列を変更するための調整機構を設定する。 この設計は、復元基準によって導かれる最適化問題と見なされている。 提案方式では,初期分割行列とプロトタイプをFCMにより生成する。 次に、ファズフィケーション係数ベクトルを導入し、各クラスタに対して適切なファズフィケーション係数を形成し、プロトタイプとパーティションマトリックスを変更するための調整スキームを構築する。 粒状化・粒状化過程の教師あり学習モードを用いて, ファズフィケーション係数ベクトル, プロトタイプ, 分割行列の複合目的関数を構築する。 その後,粒子群最適化(PSO)を用いてファジフィケーション係数ベクトルを最適化し,試作機の改良と最適分割行列の開発を行う。 最後に、FCMアルゴリズムの再構成性能を向上する。 我々は開発計画の徹底的な分析を行う。 特に,従来のFCMアルゴリズムが提案手法の特別な場合を形成することを示す。 合成データセットと公開データセットの両方で完了した実験は、提案手法がジェネリックデータ再構成アプローチよりも優れていることを示している。

Information granules have been considered to be the fundamental constructs of Granular Computing (GrC). As a useful unsupervised learning technique, Fuzzy C-Means (FCM) is one of the most frequently used methods to construct information granules. The FCM-based granulation-degranulation mechanism plays a pivotal role in GrC. In this paper, to enhance the quality of the degranulation (reconstruction) process, we augment the FCM-based degranulation mechanism by introducing a vector of fuzzification factors (fuzzification factor vector) and setting up an adjustment mechanism to modify the prototypes and the partition matrix. The design is regarded as an optimization problem, which is guided by a reconstruction criterion. In the proposed scheme, the initial partition matrix and prototypes are generated by the FCM. Then a fuzzification factor vector is introduced to form an appropriate fuzzification factor for each cluster to build up an adjustment scheme of modifying the prototypes and the partition matrix. With the supervised learning mode of the granulation-degranulation process, we construct a composite objective function of the fuzzification factor vector, the prototypes and the partition matrix. Subsequently, the particle swarm optimization (PSO) is employed to optimize the fuzzification factor vector to refine the prototypes and develop the optimal partition matrix. Finally, the reconstruction performance of the FCM algorithm is enhanced. We offer a thorough analysis of the developed scheme. In particular, we show that the classical FCM algorithm forms a special case of the proposed scheme. Experiments completed for both synthetic and publicly available datasets show that the proposed approach outperforms the generic data reconstruction approach.
翻訳日:2022-12-14 00:29:55 公開日:2020-04-13
# 量子可解マルコフ決定過程に対するkスピンハミルトニアン

K-spin Hamiltonian for quantum-resolvable Markov decision processes ( http://arxiv.org/abs/2004.06040v1 )

ライセンス: Link先を確認
Eric B. Jones, Peter Graf, Eliot Kapit and Wesley Jones(参考訳) マルコフ決定過程 (Markov decision process) は、遷移関数と報酬関数が未知のとき、現代の強化学習の分野の基礎となる数学的形式化である。 我々は、無限地平線を持つ離散、有限、ディスカウントされたマルコフ決定過程のk-スピンハミルトニアン表現と等価な疑似ボオリアンコスト関数を導出する。 このkスピンハミルトニアンは、近距離量子ハードウェア上の断熱量子アニーリングや量子近似最適化アルゴリズムのようなヒューリスティック量子アルゴリズムを用いて最適なポリシーを解くための出発点を提供する。 ハミルトンの変分最小化がベルマン最適条件と同値であることを証明する中で、古典場理論と興味深い類似性を確立する。 古典的q-learningに対するシミュレーションと量子アニーリングによる概念実証計算とともに,量子ハードウェア上でのハミルトニアン解法に必要な物理資源のスケーリングを解析した。

The Markov decision process is the mathematical formalization underlying the modern field of reinforcement learning when transition and reward functions are unknown. We derive a pseudo-Boolean cost function that is equivalent to a K-spin Hamiltonian representation of the discrete, finite, discounted Markov decision process with infinite horizon. This K-spin Hamiltonian furnishes a starting point from which to solve for an optimal policy using heuristic quantum algorithms such as adiabatic quantum annealing and the quantum approximate optimization algorithm on near-term quantum hardware. In proving that the variational minimization of our Hamiltonian is equivalent to the Bellman optimality condition we establish an interesting analogy with classical field theory. Along with proof-of-concept calculations to corroborate our formulation by simulated and quantum annealing against classical Q-Learning, we analyze the scaling of physical resources required to solve our Hamiltonian on quantum hardware.
翻訳日:2022-12-14 00:29:26 公開日:2020-04-13
# オンライン製品レビューにおけるエクストリームレビューグループの検出と評価

Detecting and Characterizing Extremist Reviewer Groups in Online Product Reviews ( http://arxiv.org/abs/2004.05865v1 )

ライセンス: Link先を確認
Viresh Gupta, Aayush Aggarwal, Tanmoy Chakraborty(参考訳) オンライン市場はしばしばレビューの形で意見スパムを目撃する。 人々はしばしば、高い肯定的または否定的なレビューを書くことによって、特定のブランドを宣伝または妨害するために雇用される。 これはしばしばグループで行われます。 過去の研究では、こうした意見スパムグループを特定し分析しようとしたが、単に商品ではなく、ブランド全体を対象とするグループを見つけるための研究はほとんど行われていない。 本稿では,Amazon製品レビューサイトからレビューを収集し,923名の候補レビューグループを手作業でラベル付けした。 それらのグループは、多くのブランドを相互にレビュー(製品)した場合に、ユーザがまとめられるように、ブランドの類似性よりも頻繁にアイテムセットマイニングを使用して抽出される。 レビューグループの性質は、(グループ、ブランド)ペアに特有の8つの特徴に依存していると仮定する。 候補群を極端存在として分類する特徴に基づく教師付きモデルを開発した。 そのグループのユーザが書いたレビューに基づいてグループを分類するタスクのために、複数の分類器を実行し、グループが四肢の徴候を示すかどうかを判断する。 3層パーセプトロンベースの分類器が最良の分類器であることが判明した。 ブランドレベルの意見詐欺のダイナミクスをよりよく理解するために、これらのグループの行動をさらに詳細に研究する。 これらの行動には、レーティングの一貫性、レビュー感情、確認済み購入、レビュー日時、レビューで受け取った有益な投票が含まれる。 驚いたことに、多くの審査員が極端な感情を示しており、さらなる調査により、Amazonに対する非公式なインセンティブを防ぐための既存のメカニズムを回避する方法が導かれる。

Online marketplaces often witness opinion spam in the form of reviews. People are often hired to target specific brands for promoting or impeding them by writing highly positive or negative reviews. This often is done collectively in groups. Although some previous studies attempted to identify and analyze such opinion spam groups, little has been explored to spot those groups who target a brand as a whole, instead of just products. In this paper, we collected reviews from the Amazon product review site and manually labelled a set of 923 candidate reviewer groups. The groups are extracted using frequent itemset mining over brand similarities such that users are clustered together if they have mutually reviewed (products of) a lot of brands. We hypothesize that the nature of the reviewer groups is dependent on 8 features specific to a (group, brand) pair. We develop a feature-based supervised model to classify candidate groups as extremist entities. We run multiple classifiers for the task of classifying a group based on the reviews written by the users of that group, to determine if the group shows signs of extremity. A 3-layer Perceptron based classifier turns out to be the best classifier. We further study the behaviours of such groups in detail to understand the dynamics of brand-level opinion fraud better. These behaviours include consistency in ratings, review sentiment, verified purchase, review dates and helpful votes received on reviews. Surprisingly, we observe that there are a lot of verified reviewers showing extreme sentiment, which on further investigation leads to ways to circumvent existing mechanisms in place to prevent unofficial incentives on Amazon.
翻訳日:2022-12-14 00:27:26 公開日:2020-04-13
# マルチレセプティブフィールド1Dコンボリューションによる粗い注釈付きスポーツビデオのイベント検出

Event detection in coarsely annotated sports videos via parallel multi receptive field 1D convolutions ( http://arxiv.org/abs/2004.06172v1 )

ライセンス: Link先を確認
Kanav Vats, Mehrnaz Fani, Pascale Walters, David A. Clausi, John Zelek(参考訳) スポーツビデオ分析などの問題では,ビデオデータの長大さから,正確なフレームレベルのアノテーションと正確なイベント時間を得るのは難しい。 この問題はアイスホッケーなどの急ピッチスポーツでさらに顕著である。 粗いスケールでのアノテーションの取得は、ずっと実用的で時間効率が良い。 粗い注釈付きビデオにおけるイベント検出の課題を提案する。 本稿では,提案課題に対する多層時間畳み込みネットワークアーキテクチャを提案する。 ネットワークは、複数の受信フィールドの助けを借りて、様々な時間スケールで情報を処理し、正確な事象の位置と期間に関する不確実性を考慮する。 適切なアブレーション研究を通じて,多受容場アーキテクチャの有効性を実証する。 NHLデータセットにおける粗い注釈付きホッケービデオにおけるイベント検出とサッカーにおけるイベントスポッティングの2つのタスクで評価した。 2つのデータセットにはフレームレベルのアノテーションがなく、イベント頻度が非常に異なる。 実験により,NHLデータセットの平均F1スコアを55%取得し,サッカーネットデータセットの最先端技術と比較して競争性能を向上することにより,ネットワークの有効性を実証した。 我々は,スポーツビデオにおけるイベント検出のための,より実用的なパイプラインの開発を支援する。

In problems such as sports video analytics, it is difficult to obtain accurate frame level annotations and exact event duration because of the lengthy videos and sheer volume of video data. This issue is even more pronounced in fast-paced sports such as ice hockey. Obtaining annotations on a coarse scale can be much more practical and time efficient. We propose the task of event detection in coarsely annotated videos. We introduce a multi-tower temporal convolutional network architecture for the proposed task. The network, with the help of multiple receptive fields, processes information at various temporal scales to account for the uncertainty with regard to the exact event location and duration. We demonstrate the effectiveness of the multi-receptive field architecture through appropriate ablation studies. The method is evaluated on two tasks - event detection in coarsely annotated hockey videos in the NHL dataset and event spotting in soccer on the SoccerNet dataset. The two datasets lack frame-level annotations and have very distinct event frequencies. Experimental results demonstrate the effectiveness of the network by obtaining a 55% average F1 score on the NHL dataset and by achieving competitive performance compared to the state of the art on the SoccerNet dataset. We believe our approach will help develop more practical pipelines for event detection in sports video.
翻訳日:2022-12-14 00:20:20 公開日:2020-04-13
# 実生活サッカーにおけるコンピュータビジョンへの挑戦と機会

Challenges and Opportunities for Computer Vision in Real-life Soccer Analytics ( http://arxiv.org/abs/2004.06180v1 )

ライセンス: Link先を確認
Neha Bhargava and Fabio Cuzzolin(参考訳) 本稿では,スポーツ分析におけるコンピュータビジョンの応用について検討する。 スポーツ分析は、スポーツデータのコーパスからのパターンの理解と発見を扱う。 このようなデータを分析することは、例えばサッカーの試合の選手にとって重要なパフォーマンス指標となり、選手の体力や強さを推定するのに役立ちます。 チームレベルの統計もそのような分析から推測できる。 本稿では主に,コンピュータビジョンにおけるスポーツビデオ解析による課題と機会に焦点を当てる。 具体的には、機械学習アルゴリズムの現実的な課題について議論するために、マルチカメラのセットアップをフレームワークとして使用します。

In this paper, we explore some of the applications of computer vision to sports analytics. Sport analytics deals with understanding and discovering patterns from a corpus of sports data. Analysing such data provides important performance metrics for the players, for instance in soccer matches, that could be useful for estimating their fitness and strengths. Team level statistics can also be estimated from such analysis. This paper mainly focuses on some the challenges and opportunities presented by sport video analysis in computer vision. Specifically, we use our multi-camera setup as a framework to discuss some of the real-life challenges for machine learning algorithms.
翻訳日:2022-12-14 00:20:03 公開日:2020-04-13
# 大規模手書き漢字認識の組込み

Embedded Large-Scale Handwritten Chinese Character Recognition ( http://arxiv.org/abs/2004.06209v1 )

ライセンス: Link先を確認
Youssouf Chherawala, Hans J. G. A. Dolfing, Ryan S. Dixon, and Jerome R. Bellegarda(参考訳) 手書き入力が普及するにつれて、中国の手書き認識をサポートするのに必要な大きなシンボルインベントリがユニークな課題となる。 本稿では,Appleのディープラーニング認識システムが,さまざまなモバイルデバイス上でリアルタイムに動作しながら,最大3万文字を正確に処理する方法について述べる。 許容できる正確性を達成するため,我々はデータ収集条件,書き方の代表性,訓練体制に特に注意を払った。 適切な注意を払って、より大きな在庫が手元にあることがわかった。 我々の実験は、十分な品質と十分な量のトレーニングデータを使用する限り、在庫が増加するにつれて精度が低下することを示している。

As handwriting input becomes more prevalent, the large symbol inventory required to support Chinese handwriting recognition poses unique challenges. This paper describes how the Apple deep learning recognition system can accurately handle up to 30,000 Chinese characters while running in real-time across a range of mobile devices. To achieve acceptable accuracy, we paid particular attention to data collection conditions, representativeness of writing styles, and training regimen. We found that, with proper care, even larger inventories are within reach. Our experiments show that accuracy only degrades slowly as the inventory increases, as long as we use training data of sufficient quality and in sufficient quantity.
翻訳日:2022-12-14 00:19:41 公開日:2020-04-13
# イベントベースモーションデブロアリングの学習

Learning Event-Based Motion Deblurring ( http://arxiv.org/abs/2004.05794v1 )

ライセンス: Link先を確認
Zhe Jiang, Yu Zhang, Dongqing Zou, Jimmy Ren, Jiancheng Lv, Yebin Liu(参考訳) ブレア画像からシャープな映像シーケンスを復元することは、ぼやけた処理において、動き情報が著しく失われるため、非常に不明瞭である。 しかし、イベントベースのカメラでは、高速モーションを高速でイベントとして捉えることができ、効果的なソリューションを探求する新たな機会が生まれる。 本稿では、イベントベースの動作遅延の逐次定式化から始め、その最適化が新しいエンドツーエンドの深層アーキテクチャでどのように展開できるかを示す。 提案アーキテクチャは,グローバルスケールとローカルスケールの両方の視覚的および時間的知識を原則的に統合した畳み込みリカレントニューラルネットワークである。 再構成をさらに改善するため、イベントストリームからリッチ境界を効果的に抽出する、微分可能な方向性イベントフィルタリングモジュールを提案する。 DAVIS240Cカメラで捉えた合成GoProデータセットと大規模な新しいデータセットについて広範な実験を行った。 提案手法は,最先端の再現性を実現し,実世界の動きのぼやきの処理を一般化する。

Recovering sharp video sequence from a motion-blurred image is highly ill-posed due to the significant loss of motion information in the blurring process. For event-based cameras, however, fast motion can be captured as events at high time rate, raising new opportunities to exploring effective solutions. In this paper, we start from a sequential formulation of event-based motion deblurring, then show how its optimization can be unfolded with a novel end-to-end deep architecture. The proposed architecture is a convolutional recurrent neural network that integrates visual and temporal knowledge of both global and local scales in principled manner. To further improve the reconstruction, we propose a differentiable directional event filtering module to effectively extract rich boundary prior from the stream of events. We conduct extensive experiments on the synthetic GoPro dataset and a large newly introduced dataset captured by a DAVIS240C camera. The proposed approach achieves state-of-the-art reconstruction quality, and generalizes better to handling real-world motion blur.
翻訳日:2022-12-14 00:12:14 公開日:2020-04-13
# SPCNet:空間保存と人間行動推定のためのコンテンツ認識ネットワーク

SPCNet:Spatial Preserve and Content-aware Network for Human Pose Estimation ( http://arxiv.org/abs/2004.05834v1 )

ライセンス: Link先を確認
Yabo Xiao, Dongdong Yu, Xiaojuan Wang, Tianqi Lv, Yiqi Fan, Lingrui Wu(参考訳) 人間のポーズ推定はコンピュータビジョンの基本的な課題である。 ディープラーニング技術はこの領域で大きな進歩を遂げているが、難しいシナリオ(目に見えないキーポイント、オクルージョン、複雑な多人数シナリオ、異常なポーズなど)はまだうまく扱っていない。 これらの問題を緩和するために、Dilated Hourglass Module(DHM)とSelective Information Module(SIM)の2つの有効なモジュールを含む空間保存・コンテンツ認識ネットワーク(SPCNet)を提案する。 Dilated Hourglass Module を用いることで、大きな受容場とともに空間分解能を維持できる。 Hourglass Networkと同様に、DHMを積み重ねてマルチステージとマルチスケールの情報を得る。 選択情報モジュールは,空間的コンテンツ認識機構を十分に考慮して,異なるレベルから比較的重要な特徴を抽出し,性能を著しく向上するように設計されている。 MPII, LSP, FLICの人間のポーズ推定ベンチマークによる大規模な実験により, ネットワークの有効性が示された。 特に,従来の手法を上回って,前述の3つのベンチマークデータセットで最先端のパフォーマンスを実現する。

Human pose estimation is a fundamental yet challenging task in computer vision. Although deep learning techniques have made great progress in this area, difficult scenarios (e.g., invisible keypoints, occlusions, complex multi-person scenarios, and abnormal poses) are still not well-handled. To alleviate these issues, we propose a novel Spatial Preserve and Content-aware Network(SPCNet), which includes two effective modules: Dilated Hourglass Module(DHM) and Selective Information Module(SIM). By using the Dilated Hourglass Module, we can preserve the spatial resolution along with large receptive field. Similar to Hourglass Network, we stack the DHMs to get the multi-stage and multi-scale information. Then, a Selective Information Module is designed to select relatively important features from different levels under a sufficient consideration of spatial content-aware mechanism and thus considerably improves the performance. Extensive experiments on MPII, LSP and FLIC human pose estimation benchmarks demonstrate the effectiveness of our network. In particular, we exceed previous methods and achieve the state-of-the-art performance on three aforementioned benchmark datasets.
翻訳日:2022-12-14 00:11:08 公開日:2020-04-13
# 微分可能最適化による教師なし顔行動単位強度推定

Unsupervised Facial Action Unit Intensity Estimation via Differentiable Optimization ( http://arxiv.org/abs/2004.05908v1 )

ライセンス: Link先を確認
Xinhui Song and Tianyang Shi and Tianjia Shao and Yi Yuan and Zunlei Feng and Changjie Fan(参考訳) 顔画像からの顔行動単位(AU)の自動強度推定は、顔分析システムにおいて重要な役割を果たす。 データ駆動型AU強度推定の大きな課題のひとつは、十分なAUラベルデータがないことだ。 AUアノテーションは強力なドメインの専門知識を必要とするため、深いモデルを学ぶために広範囲のデータベースを構築するのはコストがかかる。 ラベル付きAUの限られた数と同一性の違いとポーズの変化により、推定困難が増大する。 これらすべての困難を考慮し,注釈付きAUデータを必要とせず,単一の画像から顔AU強度を推定するための教師なしフレームワークGE-Netを提案する。 筆者らのフレームワークは,顔のパラメータ(頭部ポーズ,AUパラメータ,識別パラメータ)を反復的に更新して,入力画像にマッチさせる,微分可能な最適化を行う。 GE-Netはジェネレータと特徴抽出器の2つのモジュールで構成される。 生成器は、顔パラメータの集合から顔画像を微分可能な方法で「レンダリング」し、特徴抽出器は、レンダリングされた画像と入力された実画像の類似度を測定するための深い特徴を抽出する。 2つのモジュールをトレーニングし、固定した後、このフレームワークは、描画画像と入力画像との抽出された特徴の差を最小限にして最適な顔パラメータを探索する。 実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。

The automatic intensity estimation of facial action units (AUs) from a single image plays a vital role in facial analysis systems. One big challenge for data-driven AU intensity estimation is the lack of sufficient AU label data. Due to the fact that AU annotation requires strong domain expertise, it is expensive to construct an extensive database to learn deep models. The limited number of labeled AUs as well as identity differences and pose variations further increases the estimation difficulties. Considering all these difficulties, we propose an unsupervised framework GE-Net for facial AU intensity estimation from a single image, without requiring any annotated AU data. Our framework performs differentiable optimization, which iteratively updates the facial parameters (i.e., head pose, AU parameters and identity parameters) to match the input image. GE-Net consists of two modules: a generator and a feature extractor. The generator learns to "render" a face image from a set of facial parameters in a differentiable way, and the feature extractor extracts deep features for measuring the similarity of the rendered image and input real image. After the two modules are trained and fixed, the framework searches optimal facial parameters by minimizing the differences of the extracted features between the rendered image and the input image. Experimental results demonstrate that our method can achieve state-of-the-art results compared with existing methods.
翻訳日:2022-12-14 00:10:49 公開日:2020-04-13
# エンド・ツー・エンド・ネットワークの訓練による指紋の密度登録とモザイク

Dense Registration and Mosaicking of Fingerprints by Training an End-to-End Network ( http://arxiv.org/abs/2004.05972v1 )

ライセンス: Link先を確認
Zhe Cui, Jianjiang Feng, Jie Zhou(参考訳) 指紋の密度登録は, 弾性皮膚歪み, 低画質, 隆起パターンの自己相似性による課題である。 手工芸品の特徴の限界を克服するため,両指紋間の画素単位の変位場を直接出力するエンド・ツー・エンド・ネットワークを提案する。 提案するネットワークは,特徴埋め込みのためのサイムズネットワークと,変位場を回帰するエンコーダ・デコーダネットワークを含む。 高画質の指紋映像を追跡して確実に推定される変位場を挑戦指紋に適用することにより,大量の訓練用指紋対と接地真理変位場を合成する。 また,提案した登録アルゴリズムに基づき,最適なシーム選択に基づく指紋モザイク手法を提案する。 FVC2004データベース,TDF(Tinghua Distorted Fingerprint)データベース,NIST SD27潜伏指紋データベース上での登録とマッチング実験により,我々の登録手法は,従来の密度の高い登録方法よりも精度と効率が優れていることが示された。 FVC 2004 DB1におけるモザイク実験により,提案アルゴリズムが他のアルゴリズムよりも高品質な指紋を生成できることが実証された。

Dense registration of fingerprints is a challenging task due to elastic skin distortion, low image quality, and self-similarity of ridge pattern. To overcome the limitation of handcraft features, we propose to train an end-to-end network to directly output pixel-wise displacement field between two fingerprints. The proposed network includes a siamese network for feature embedding, and a following encoder-decoder network for regressing displacement field. By applying displacement fields reliably estimated by tracing high quality fingerprint videos to challenging fingerprints, we synthesize a large number of training fingerprint pairs with ground truth displacement fields. In addition, based on the proposed registration algorithm, we propose a fingerprint mosaicking method based on optimal seam selection. Registration and matching experiments on FVC2004 databases, Tsinghua Distorted Fingerprint (TDF) database, and NIST SD27 latent fingerprint database show that our registration method outperforms previous dense registration methods in accuracy and efficiency. Mosaicking experiment on FVC2004 DB1 demonstrates that the proposed algorithm produced higher quality fingerprints than other algorithms which also validates the performance of our registration algorithm.
翻訳日:2022-12-14 00:10:29 公開日:2020-04-13
# マルチスペクトル画像におけるクロスドメイン変化検出のためのディープシャム領域適応畳み込みニューラルネットワーク

Deep Siamese Domain Adaptation Convolutional Neural Network for Cross-domain Change Detection in Multispectral Images ( http://arxiv.org/abs/2004.05745v1 )

ライセンス: Link先を確認
Hongruixuan Chen and Chen Wu and Bo Du and Liangepei Zhang(参考訳) 近年,ディープラーニングは変化検出タスクにおいて有望な性能を達成している。 しかし、深層モデルはタスク固有であり、データセットのバイアスがしばしば存在するため、あるマルチテンポラルデータセット(ソースドメイン)でトレーニングされたネットワークを、非常に制限された(全くない)ラベル付きデータ(ターゲットドメイン)を持つ別のマルチテンポラルデータセットに転送することは困難である。 本稿では,クロスドメイン変化検出のための新しいディープシャム領域適応畳み込みニューラルネットワーク(dsdanet)アーキテクチャを提案する。 DSDANetでは、シアム畳み込みニューラルネットワークがまず、多時間画像から空間スペクトルの特徴を抽出する。 次に、マルチカーネル最大平均誤差(MK-MMD)を通して、学習した特徴表現を再生カーネルヒルベルト空間(RKHS)に埋め込み、2つの領域の分布を明示的に一致させることができる。 ソースラベル付きデータでネットワークパラメータとカーネル係数を最適化し、ラベルなしデータをターゲットにすることにより、DSDANetは2つのドメイン間の相違をブリッジするトランスファー可能な特徴表現を学習できる。 我々の知る限りでは、このようなドメイン適応に基づくディープネットワークが変更検出のために提案されたのは初めてである。 理論的解析と実験により,提案手法の有効性と可能性を示す。

Recently, deep learning has achieved promising performance in the change detection task. However, the deep models are task-specific and data set bias often exists, thus it is difficult to transfer a network trained on one multi-temporal data set (source domain) to another multi-temporal data set with very limited (even no) labeled data (target domain). In this paper, we propose a novel deep siamese domain adaptation convolutional neural network (DSDANet) architecture for cross-domain change detection. In DSDANet, a siamese convolutional neural network first extracts spatial-spectral features from multi-temporal images. Then, through multiple kernel maximum mean discrepancy (MK-MMD), the learned feature representation is embedded into a reproducing kernel Hilbert space (RKHS), in which the distribution of two domains can be explicitly matched. By optimizing the network parameters and kernel coefficients with the source labeled data and target unlabeled data, the DSDANet can learn transferrable feature representation that can bridge the discrepancy between two domains. To the best of our knowledge, it is the first time that such a domain adaptation-based deep network is proposed for change detection. The theoretical analysis and experimental results demonstrate the effectiveness and potential of the proposed method.
翻訳日:2022-12-14 00:02:03 公開日:2020-04-13
# クロスモーダルとクロスビュー対応による自己指導型特徴学習

Self-supervised Feature Learning by Cross-modality and Cross-view Correspondences ( http://arxiv.org/abs/2004.05749v1 )

ライセンス: Link先を確認
Longlong Jing, Yucheng Chen, Ling Zhang, Mingyi He, Yingli Tian(参考訳) 教師付き学習の成功には、非常に高価で時間を要する大規模な真実ラベルが必要である。 この問題に対処するために、多くの自己または非監督手法が開発されている。 2d画像特徴のみを学習したり,あるいは3d点クラウド特徴のみを学習する既存の自己教師あり手法と異なり,人間の注釈ラベルを使わずに2d画像特徴と3d点クラウド特徴の両方を共同学習する,新規かつ効果的な自己教師あり学習手法を提案する。 具体的には、異なるビューからレンダリングされた画像の2D画像特徴を2D畳み込みニューラルネットワークで抽出し、グラフ畳み込みニューラルネットワークで3D点雲特徴を抽出する。 2種類の特徴を2層完全連結ニューラルネットワークに供給し、相互モダリティ対応を推定する。 3つのネットワークは、異なるモダリティの2つのサンプルデータが同じオブジェクトに属するかどうかを検証することによって、共同訓練(すなわち、クロスモダリティ)され、一方、2d畳み込みニューラルネットワークは、異なるビュー(すなわち、クロスビュー)でレンダリングされた画像のオブジェクト間距離を最大化しながら、オブジェクト間距離を最小化することで、さらに最適化される。 学習した2次元特徴と3次元特徴の有効性を,多視点2次元形状認識,3次元形状認識,多視点2次元形状検索,3次元形状検索,および3次元部分分割を含む5つのタスクに伝達することによって評価する。 異なるデータセットにまたがる5つの異なるタスクの広範囲な評価は、学習した2次元および3次元特徴を自己教師あり法によって強固に一般化し、有効性を示す。

The success of supervised learning requires large-scale ground truth labels which are very expensive, time-consuming, or may need special skills to annotate. To address this issue, many self- or un-supervised methods are developed. Unlike most existing self-supervised methods to learn only 2D image features or only 3D point cloud features, this paper presents a novel and effective self-supervised learning approach to jointly learn both 2D image features and 3D point cloud features by exploiting cross-modality and cross-view correspondences without using any human annotated labels. Specifically, 2D image features of rendered images from different views are extracted by a 2D convolutional neural network, and 3D point cloud features are extracted by a graph convolution neural network. Two types of features are fed into a two-layer fully connected neural network to estimate the cross-modality correspondence. The three networks are jointly trained (i.e. cross-modality) by verifying whether two sampled data of different modalities belong to the same object, meanwhile, the 2D convolutional neural network is additionally optimized through minimizing intra-object distance while maximizing inter-object distance of rendered images in different views (i.e. cross-view). The effectiveness of the learned 2D and 3D features is evaluated by transferring them on five different tasks including multi-view 2D shape recognition, 3D shape recognition, multi-view 2D shape retrieval, 3D shape retrieval, and 3D part-segmentation. Extensive evaluations on all the five different tasks across different datasets demonstrate strong generalization and effectiveness of the learned 2D and 3D features by the proposed self-supervised method.
翻訳日:2022-12-14 00:01:25 公開日:2020-04-13
# UC-Net:条件変分オートエンコーダによる不確実なRGB-D濃度検出

UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional Variational Autoencoders ( http://arxiv.org/abs/2004.05763v1 )

ライセンス: Link先を確認
Jing Zhang, Deng-Ping Fan, Yuchao Dai, Saeed Anwar, Fatemeh Sadat Saleh, Tong Zhang, Nick Barnes(参考訳) 本稿では,データラベリングプロセスから学習することで,RGB-Dサリエンシ検出の不確実性を利用した最初のフレームワーク(UCNet)を提案する。 既存のRGB-Dサリエンシ検出手法は、サリエンシ検出タスクをポイント推定問題として扱い、決定論的学習パイプラインに従って単一のサリエンシマップを生成する。 そこで本研究では,人間の不確かさをモデル化するための条件付き変分自動エンコーダを用いた確率的RGB-Dサリエンシ検出ネットワークを提案し,潜時空間にサンプリングすることで,各入力画像に対して複数のサリエンシマップを生成する。 提案手法では,これらの複数の予測に基づいて正確な塩分分布図を生成することができる。 18のアルゴリズムに対する6つの挑戦的ベンチマークデータセットの量的・質的評価は、サリエンシーマップの分布を学習する手法の有効性を示し、rgb-dサリエンシー検出の新たな最先端につながった。

In this paper, we propose the first framework (UCNet) to employ uncertainty for RGB-D saliency detection by learning from the data labeling process. Existing RGB-D saliency detection methods treat the saliency detection task as a point estimation problem, and produce a single saliency map following a deterministic learning pipeline. Inspired by the saliency data labeling process, we propose probabilistic RGB-D saliency detection network via conditional variational autoencoders to model human annotation uncertainty and generate multiple saliency maps for each input image by sampling in the latent space. With the proposed saliency consensus process, we are able to generate an accurate saliency map based on these multiple predictions. Quantitative and qualitative evaluations on six challenging benchmark datasets against 18 competing algorithms demonstrate the effectiveness of our approach in learning the distribution of saliency maps, leading to a new state-of-the-art in RGB-D saliency detection.
翻訳日:2022-12-14 00:00:53 公開日:2020-04-13
# ワンショット非教師付きドメイン適応のための逆スタイルマイニング

Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation ( http://arxiv.org/abs/2004.06042v1 )

ライセンス: Link先を確認
Yawei Luo, Ping Liu, Tao Guan, Junqing Yu, Yi Yang(参考訳) 我々は,one-shot unsupervised domain adaptationという問題に目を向ける。 従来のUnsupervised Domain Adaptationとは異なり、適応を学ぶ際には、ラベルなしのターゲットサンプルが1つしかないと仮定する。 この設定は現実的だがより困難であり、ラベルなしのターゲットデータの不足により、従来の適応アプローチが失敗に陥りやすい。 そこで本研究では,スタイルトランスファーモジュールとタスク固有モジュールを相反的に結合した,新たな敵対的スタイルマイニング手法を提案する。 具体的には、このスタイル転送モジュールは、現在の学習状況に応じて、ワンショットターゲットサンプルの周囲のより厳しいスタイリング画像を反復的に検索し、ほとんど目に見えないターゲットドメインで解決が難しい潜在的なスタイルを探索し、データスカースシナリオにおける適応性能を高める。 逆学習フレームワークは、競技中にスタイル転送モジュールとタスク固有のモジュールを相互に恩恵を与える。 クロスドメイン分類とセグメンテーションベンチマークの両方の広範な実験により、ASMが挑戦的なワンショット設定の下で最先端の適応性能を達成することを確認した。

We aim at the problem named One-Shot Unsupervised Domain Adaptation. Unlike traditional Unsupervised Domain Adaptation, it assumes that only one unlabeled target sample can be available when learning to adapt. This setting is realistic but more challenging, in which conventional adaptation approaches are prone to failure due to the scarce of unlabeled target data. To this end, we propose a novel Adversarial Style Mining approach, which combines the style transfer module and task-specific module into an adversarial manner. Specifically, the style transfer module iteratively searches for harder stylized images around the one-shot target sample according to the current learning state, leading the task model to explore the potential styles that are difficult to solve in the almost unseen target domain, thus boosting the adaptation performance in a data-scarce scenario. The adversarial learning framework makes the style transfer module and task-specific module benefit each other during the competition. Extensive experiments on both cross-domain classification and segmentation benchmarks verify that ASM achieves state-of-the-art adaptation performance under the challenging one-shot setting.
翻訳日:2022-12-13 23:54:12 公開日:2020-04-13
# レートレス符号化伝送を用いた非定常バンディット学習によるエネルギー効率のよいフェムトキャッシング

A Non-Stationary Bandit-Learning Approach to Energy-Efficient Femto-Caching with Rateless-Coded Transmission ( http://arxiv.org/abs/2005.04154v1 )

ライセンス: Link先を確認
Setareh Maghsudi and Mihaela van der Schaar(参考訳) メディアストリーミングの需要の増大とバックホール容量の制限により、効率的なファイル配信方法の開発が必須となっている。 そのような手法の1つはフェムトキャッシングであり、その大きな可能性にもかかわらず、効率的な資源管理などいくつかの課題を課している。 小型セルネットワークにおけるジョイントキャッシングと伝送のための資源配分問題について検討した。 (i)キャッシュ配置、及び (ii)共同ファイル・送信電力選択と放送 送電電力の単位当たりの復旧成功数の観点から,各小基地局の実用性を定義した。 次に,各放送ラウンド毎の送信電力レベルとともに,キャッシュからファイルを選択する際の問題を定式化し,水平線上の蓄積ユーティリティを最大化する。 前者の問題は確率的ナップサック問題に帰着し、後者をマルチアームのバンディット問題として位置づけた。 我々は,各問題に対する解法を開発し,理論的および数値的評価を行う。 最先端の研究とは対照的に、提案手法は時変統計特性を持つネットワークに特に適している。 さらに、ファイルの人気やチャンネル品質といったランダムパラメータの統計的特徴に関する初期情報が得られなくても、適用可能であり、うまく動作する。

The ever-increasing demand for media streaming together with limited backhaul capacity renders developing efficient file-delivery methods imperative. One such method is femto-caching, which, despite its great potential, imposes several challenges such as efficient resource management. We study a resource allocation problem for joint caching and transmission in small cell networks, where the system operates in two consecutive phases: (i) cache placement, and (ii) joint file- and transmit power selection followed by broadcasting. We define the utility of every small base station in terms of the number of successful reconstructions per unit of transmission power. We then formulate the problem as to select a file from the cache together with a transmission power level for every broadcast round so that the accumulated utility over the horizon is maximized. The former problem boils down to a stochastic knapsack problem, and we cast the latter as a multi-armed bandit problem. We develop a solution to each problem and provide theoretical and numerical evaluations. In contrast to the state-of-the-art research, the proposed approach is especially suitable for networks with time-variant statistical properties. Moreover, it is applicable and operates well even when no initial information about the statistical characteristics of the random parameters such as file popularity and channel quality is available.
翻訳日:2022-12-13 23:53:32 公開日:2020-04-13
# 推論から生成へ:音声からの人間の顔の完全な自己教師的生成

From Inference to Generation: End-to-end Fully Self-supervised Generation of Human Face from Speech ( http://arxiv.org/abs/2004.05830v1 )

ライセンス: Link先を確認
Hyeong-Seok Choi, Changdae Park, Kyogu Lee(参考訳) 本研究は,人間ラベル付きアノテーションを使わずに,音声・視覚データのみに基づいて音声から人間の顔を生成する可能性を探る。 そこで本研究では,推論段階と生成段階をリンクするマルチモーダル学習フレームワークを提案する。 まず、推論ネットワークは、2つの異なるモード間の話者同一性に適合するように訓練される。 そして、訓練された推論ネットワークは、音声に関する条件情報を与えることで、生成ネットワークと連携する。 提案手法は,最新のGAN技術を活用し,音声波形から直接人間の顔を生成し,システムを完全にエンドツーエンドにする。 顔画像の生成に寄与する2つの潜在要因(音声信号から直接生じる要因とそれと無関係な要因)をネットワークが自然に分離できる程度を分析し、これらの因子をモデル化することで、ネットワークが自然な顔画像の分布を学習できるかどうかを考察する。 実験の結果,提案ネットワークは,人間の顔と音声の関係にマッチするだけでなく,その音声を条件とした高品質な顔サンプルを生成できることがわかった。 最後に、生成した顔と対応する音声との相関を定量的に測定し、2つのモーダリティの関係を分析する。

This work seeks the possibility of generating the human face from voice solely based on the audio-visual data without any human-labeled annotations. To this end, we propose a multi-modal learning framework that links the inference stage and generation stage. First, the inference networks are trained to match the speaker identity between the two different modalities. Then the trained inference networks cooperate with the generation network by giving conditional information about the voice. The proposed method exploits the recent development of GANs techniques and generates the human face directly from the speech waveform making our system fully end-to-end. We analyze the extent to which the network can naturally disentangle two latent factors that contribute to the generation of a face image - one that comes directly from a speech signal and the other that is not related to it - and explore whether the network can learn to generate natural human face image distribution by modeling these factors. Experimental results show that the proposed network can not only match the relationship between the human face and speech, but can also generate the high-quality human face sample conditioned on its speech. Finally, the correlation between the generated face and the corresponding speech is quantitatively measured to analyze the relationship between the two modalities.
翻訳日:2022-12-13 23:53:13 公開日:2020-04-13
# 韓国チャットボットにおける誤文分類のための統合型eojeol埋め込み

Integrated Eojeol Embedding for Erroneous Sentence Classification in Korean Chatbots ( http://arxiv.org/abs/2004.05744v1 )

ライセンス: Link先を確認
DongHyun Choi and IlNam Park and Myeong Cheol Shin and EungGyun Kim and Dong Ryeol Shin(参考訳) 本稿では,チャットボットの韓国語文分類システムを解析する。 文分類は、予め定義されたカテゴリに基づいて入力文を分類するタスクである。 しかし、入力文に含まれる綴りや空間誤差は形態素解析やトークン化に問題を引き起こす。 本稿では,不規則な形態素が文の分類に与える影響を減らすために,組込み型eojeol (korean syntactic word separated by space) の新たなアプローチを提案する。 また,分類性能をさらに向上させる2つのノイズ挿入法を提案する。 評価の結果,提案システムでは,ベースラインシステムよりも17%の精度で誤文を分類できることがわかった。

This paper attempts to analyze the Korean sentence classification system for a chatbot. Sentence classification is the task of classifying an input sentence based on predefined categories. However, spelling or space error contained in the input sentence causes problems in morphological analysis and tokenization. This paper proposes a novel approach of Integrated Eojeol (Korean syntactic word separated by space) Embedding to reduce the effect that poorly analyzed morphemes may make on sentence classification. It also proposes two noise insertion methods that further improve classification performance. Our evaluation results indicate that the proposed system classifies erroneous sentences more accurately than the baseline system by 17%p.0
翻訳日:2022-12-13 23:52:33 公開日:2020-04-13
# BERTを用いた統一中国語単語分割

Unified Multi-Criteria Chinese Word Segmentation with BERT ( http://arxiv.org/abs/2004.05808v1 )

ライセンス: Link先を確認
Zhen Ke, Liang Shi, Erli Meng, Bin Wang, Xipeng Qiu, Xuanjing Huang(参考訳) mccws(multi-criteria chinese word segmentation)は、複数のセグメンテーション基準が存在する間、連続した文字からなる中国語文の単語境界を見つけることを目的としている。 統一フレームワークはMCCWSで広く使われており、その有効性を示している。 さらに、事前訓練されたBERT言語モデルもマルチタスク学習フレームワークでMCCWSタスクに導入されている。 本稿では,統一フレームワークと事前学習された言語モデルの優位性を融合し,bertに基づく統一mccwsモデルを提案する。 さらに、大まかな特徴と補助的基準分類タスクを備えた統合BERTベースのMCCWSモデルを強化する。 多様な基準を持つ8つのデータセットに対する実験により,本手法がMCCWSの新たな最先端結果が得られることが示された。

Multi-Criteria Chinese Word Segmentation (MCCWS) aims at finding word boundaries in a Chinese sentence composed of continuous characters while multiple segmentation criteria exist. The unified framework has been widely used in MCCWS and shows its effectiveness. Besides, the pre-trained BERT language model has been also introduced into the MCCWS task in a multi-task learning framework. In this paper, we combine the superiority of the unified framework and pretrained language model, and propose a unified MCCWS model based on BERT. Moreover, we augment the unified BERT-based MCCWS model with the bigram features and an auxiliary criterion classification task. Experiments on eight datasets with diverse criteria demonstrate that our methods could achieve new state-of-the-art results for MCCWS.
翻訳日:2022-12-13 23:52:23 公開日:2020-04-13
# ニューラルマシン翻訳:挑戦,進歩,未来

Neural Machine Translation: Challenges, Progress and Future ( http://arxiv.org/abs/2004.05809v1 )

ライセンス: Link先を確認
Jiajun Zhang and Chengqing Zong(参考訳) 機械翻訳(英: Machine translation, MT)は、コンピュータを利用して人間の言語を自動翻訳する技術である。 今日、深層ニューラルネットワークによるソースとターゲット言語間の直接マッピングをモデル化するニューラルマシン翻訳(NMT)が、翻訳性能の大きなブレークスルーを達成し、MTのデファクトパラダイムとなった。この記事では、NMTフレームワークをレビューし、NMTの課題を論じ、最近のエキサイティングな進歩を紹介し、今後の研究動向を楽しみにしている。 さらに, 各種NMTタスクの最先端手法を Web サイト https://github.com/ZNLP/SOTA-MT で維持する。

Machine translation (MT) is a technique that leverages computers to translate human languages automatically. Nowadays, neural machine translation (NMT) which models direct mapping between source and target languages with deep neural networks has achieved a big breakthrough in translation performance and become the de facto paradigm of MT. This article makes a review of NMT framework, discusses the challenges in NMT, introduces some exciting recent progresses and finally looks forward to some potential future research trends. In addition, we maintain the state-of-the-art methods for various NMT tasks at the website https://github.com/ZNLP/SOTA-MT.
翻訳日:2022-12-13 23:52:12 公開日:2020-04-13
# 並列攻撃を伴う構成則の自動校正、検証、改ざんのための非協力的メタモデリングゲーム

A non-cooperative meta-modeling game for automated third-party calibrating, validating, and falsifying constitutive laws with parallelized adversarial attacks ( http://arxiv.org/abs/2004.09392v1 )

ライセンス: Link先を確認
Kun Wang, WaiChing Sun, Qiang Du(参考訳) 構成モデルの評価は、特に高リスクで高精細な工学的応用のためには、効率的で厳格なサードパーティのキャリブレーション、検証、改ざんを必要とする。 モデルを検証するためのパラダイムや標準手順を開発する努力は数多くあるが、一般的に採用されているキャリブレーションと検証プロセスの逐次的、手動的、しばしばバイアスのかかる性質のために困難が生じ、データ収集が遅くなり、新しい物理の発見への進歩が妨げられ、費用が増加し、提案されたモデルの信頼性と適用範囲の誤解釈につながる可能性がある。 本研究は,ゲーム理論と機械学習技術の概念を導入し,これらの課題の多くを克服しようとするものである。 そこで,2つのaiエージェントが実験データを体系的に生成し,与えられた構成モデルを校正し,その弱点を探求し,競争による実験設計とモデルロバスト性を改善する自動メタモデリングゲームを提案する。 この2つのエージェントは、人間の介入なしに対向的な強化学習フレームワークにおいてメタモデリングゲームのナッシュ平衡を自動的に探索する。 実験の可能な全ての設計オプションを1つの決定木にキャプチャすることで、実験の設計を2人の競技者による深層強化学習を通じて解決できる組合せ運動のゲームとして再キャストする。 我々の逆境フレームワークは、研究者間の理想的な科学的コラボレーションと競争をエミュレートし、学習資料法の適用範囲をよりよく理解し、従来のAIベースの第三者検証による誤解釈を防止する。

The evaluation of constitutive models, especially for high-risk and high-regret engineering applications, requires efficient and rigorous third-party calibration, validation and falsification. While there are numerous efforts to develop paradigms and standard procedures to validate models, difficulties may arise due to the sequential, manual and often biased nature of the commonly adopted calibration and validation processes, thus slowing down data collections, hampering the progress towards discovering new physics, increasing expenses and possibly leading to misinterpretations of the credibility and application ranges of proposed models. This work attempts to introduce concepts from game theory and machine learning techniques to overcome many of these existing difficulties. We introduce an automated meta-modeling game where two competing AI agents systematically generate experimental data to calibrate a given constitutive model and to explore its weakness, in order to improve experiment design and model robustness through competition. The two agents automatically search for the Nash equilibrium of the meta-modeling game in an adversarial reinforcement learning framework without human intervention. By capturing all possible design options of the laboratory experiments into a single decision tree, we recast the design of experiments as a game of combinatorial moves that can be resolved through deep reinforcement learning by the two competing players. Our adversarial framework emulates idealized scientific collaborations and competitions among researchers to achieve a better understanding of the application range of the learned material laws and prevent misinterpretations caused by conventional AI-based third-party validation.
翻訳日:2022-12-13 23:45:45 公開日:2020-04-13
# ドッキングレス自転車シェアリングシステムにおける流れ予測のための爆発的解釈パターン

Exploiting Interpretable Patterns for Flow Prediction in Dockless Bike Sharing Systems ( http://arxiv.org/abs/2004.05774v1 )

ライセンス: Link先を確認
Jingjing Gu, Qiang Zhou, Jingyuan Yang, Yanchi Liu, Fuzhen Zhuang, Yanchao Zhao, and Hui Xiong(参考訳) 従来のドックベースのシステムとは異なり、ドックレス自転車シェアリングシステムは柔軟性の面ではユーザーにとって便利である。 しかし、これらのドックレスシステムの柔軟性は、管理と運用の複雑さのコストが伴う。 実際、自転車の不均衡とダイナミックな使用は、効果的な自転車交通流予測に重要なニーズを課すため、強制的な再バランス操作につながる。 交通流予測モデルの開発に取り組んできたが、既存のアプローチは解釈可能性に欠けており、現実的な展開には限界がある。 そこで,本研究では,交通パターンを解釈可能な効果的な自転車流れ予測を実現するためのibfpフレームワークを提案する。 具体的には, 都市部を流れ密度に応じて領域に分割することにより, まず, グラフ正規化スパース表現を用いて, 周期データ構造の共通性を維持するためにグラフラプラシアンをスムーズな演算子として用いる領域間の時空間サイクルをモデル化する。 次に,スパース表現を用いたサブスペースクラスタリングを用いて,自転車流れからトラヒックパターンを抽出し,解釈可能なベース行列を構築する。 さらに、解釈可能なベース行列と学習パラメータで自転車の流れを予測することができる。 最後に,実世界データを用いた実験により,ドックレス自転車シェアリングシステムにおける流れ予測におけるibfp法の有用性を示す。 さらに,IBFPが自転車のフロー解析に有用な洞察を提供するケーススタディを通じて,フローパターンの解釈可能性について述べる。

Unlike the traditional dock-based systems, dockless bike-sharing systems are more convenient for users in terms of flexibility. However, the flexibility of these dockless systems comes at the cost of management and operation complexity. Indeed, the imbalanced and dynamic use of bikes leads to mandatory rebalancing operations, which impose a critical need for effective bike traffic flow prediction. While efforts have been made in developing traffic flow prediction models, existing approaches lack interpretability, and thus have limited value in practical deployment. To this end, we propose an Interpretable Bike Flow Prediction (IBFP) framework, which can provide effective bike flow prediction with interpretable traffic patterns. Specifically, by dividing the urban area into regions according to flow density, we first model the spatio-temporal bike flows between regions with graph regularized sparse representation, where graph Laplacian is used as a smooth operator to preserve the commonalities of the periodic data structure. Then, we extract traffic patterns from bike flows using subspace clustering with sparse representation to construct interpretable base matrices. Moreover, the bike flows can be predicted with the interpretable base matrices and learned parameters. Finally, experimental results on real-world data show the advantages of the IBFP method for flow prediction in dockless bike sharing systems. In addition, the interpretability of our flow pattern exploitation is further illustrated through a case study where IBFP provides valuable insights into bike flow analysis.
翻訳日:2022-12-13 23:44:50 公開日:2020-04-13
# 深部ニューラルネットワークのトポロジー

Topology of deep neural networks ( http://arxiv.org/abs/2004.06093v1 )

ライセンス: Link先を確認
Gregory Naitzat, Andrey Zhitnikov, and Lek-Heng Lim(参考訳) M = M_a \cup M_b \subseteq \mathbb{R}^d$, バイナリ分類問題における2つのクラス$a$と$b$を表すデータセットの位相がよく訓練されたニューラルネットワークの層を通過するときの変化、すなわち、トレーニングセットの完全精度とほぼゼロの一般化誤差(\approx 0.01\%$)について検討する。 目標は、ディープニューラルネットワークの2つの謎に光を当てることです。 i) ReLUのような非滑らかな活性化関数は、双曲タンジェントのような滑らかな作用より優れる。 (II) ニューラルネットワークアーキテクチャの成功は、浅いネットワークが任意の関数をうまく近似できるとしても、多くの層を持つことに依存している。 我々は,実・模擬両方の幅広い点クラウドデータセットの永続的ホモロジーに関する広範な実験を行った。 1) ニューラルネットワークはトポロジーを変化させて動作し, トポロジー的に複雑なデータ集合を, トポロジー的に単純なデータに変換する。 M$ のトポロジーがどれほど複雑であったとしても、よく訓練されたニューラルネットワーク $f : \mathbb{R}^d \to \mathbb{R}^p$ を通り抜けると、両方の成分のベッチ数に対して $M_a$ と $M_b$ が大幅に減少し、実際は最小の値にほぼ常に減少する: $\beta_k\bigl(f(M_i)\bigr) = 0$ for $k \ge 1$ と $\beta_0\bigl(f(M_i)\bigr) = 1$, $i = a, b$ である。 さらに、(2)ベッチ数の減少は、トポロジーを変える非同型写像を前者が定義するのに対し、後者はトポロジーを保存する同型写像を定義する。 最後に、(3)浅層および深層ネットワークはデータセットを異なる方法で変換する -- 浅いネットワークは、主に幾何学を変更し、最終層のみにトポロジを変更することで機能し、深いネットワークはすべての層により均等にトポロジ的変化を拡散する。

We study how the topology of a data set $M = M_a \cup M_b \subseteq \mathbb{R}^d$, representing two classes $a$ and $b$ in a binary classification problem, changes as it passes through the layers of a well-trained neural network, i.e., with perfect accuracy on training set and near-zero generalization error ($\approx 0.01\%$). The goal is to shed light on two mysteries in deep neural networks: (i) a nonsmooth activation function like ReLU outperforms a smooth one like hyperbolic tangent; (ii) successful neural network architectures rely on having many layers, even though a shallow network can approximate any function arbitrary well. We performed extensive experiments on the persistent homology of a wide range of point cloud data sets, both real and simulated. The results consistently demonstrate the following: (1) Neural networks operate by changing topology, transforming a topologically complicated data set into a topologically simple one as it passes through the layers. No matter how complicated the topology of $M$ we begin with, when passed through a well-trained neural network $f : \mathbb{R}^d \to \mathbb{R}^p$, there is a vast reduction in the Betti numbers of both components $M_a$ and $M_b$; in fact they nearly always reduce to their lowest possible values: $\beta_k\bigl(f(M_i)\bigr) = 0$ for $k \ge 1$ and $\beta_0\bigl(f(M_i)\bigr) = 1$, $i =a, b$. Furthermore, (2) the reduction in Betti numbers is significantly faster for ReLU activation than hyperbolic tangent activation as the former defines nonhomeomorphic maps that change topology, whereas the latter defines homeomorphic maps that preserve topology. Lastly, (3) shallow and deep networks transform data sets differently -- a shallow network operates mainly through changing geometry and changes topology only in its final layers, a deep one spreads topological changes more evenly across all layers.
翻訳日:2022-12-13 23:44:09 公開日:2020-04-13
# 分散学習:資源制約環境における逐次決定

Distributed Learning: Sequential Decision Making in Resource-Constrained Environments ( http://arxiv.org/abs/2004.06171v1 )

ライセンス: Link先を確認
Udari Madhushani and Naomi Ehrich Leonard(参考訳) 本研究では,資源制約環境における分散学習システムの性能向上に有効な通信戦略について検討する。 逐次意思決定における分散学習のための新しいコスト効率部分通信プロトコルを提案する。 このプロトコルでは、グループの性能は完全な通信で得られるのと同じ順序になることを示す。 さらに、提案する部分通信プロトコルでは、通信コストがo(\log t)$であり、ここでは$t$が意思決定プロセスの時間軸であることを証明する。 これは完全な通信を持つプロトコルで大幅に改善され、通信コストは$o(t)$になる。 数値シミュレーションを用いて理論的結果を検証する。

We study cost-effective communication strategies that can be used to improve the performance of distributed learning systems in resource-constrained environments. For distributed learning in sequential decision making, we propose a new cost-effective partial communication protocol. We illustrate that with this protocol the group obtains the same order of performance that it obtains with full communication. Moreover, we prove that under the proposed partial communication protocol the communication cost is $O(\log T)$, where $T$ is the time horizon of the decision-making process. This improves significantly on protocols with full communication, which incur a communication cost that is $O(T)$. We validate our theoretical results using numerical simulations.
翻訳日:2022-12-13 23:42:54 公開日:2020-04-13
# 深部残留ネットワークのマルチレベル最小化

Multilevel Minimization for Deep Residual Networks ( http://arxiv.org/abs/2004.06196v1 )

ライセンス: Link先を確認
Lisa Gaedke-Merzh\"auser and Alena Kopani\v{c}\'akov\'a and Rolf Krause(参考訳) 本稿では,深層残留ネットワーク(resnets)のトレーニングのための新しいマルチレベル最小化フレームワークを提案する。 我々のフレームワークは,初期値問題の離散化としてResNetを定式化した力学系の視点に基づいている。 学習過程は時間依存最適制御問題として定式化され、異なる時間分散パラメータを用いて離散化され、最終的には異なる解像度の補助ネットワークの多重レベル階層を生成する。 元のResNetのトレーニングは、解像度を下げた補助ネットワークのトレーニングによって強化される。 設計によって、我々のフレームワークは、マルチレベル階層の各レベルで選択されたトレーニング戦略の選択から都合よく独立している。 数値的な例を用いて,提案手法の収束挙動を分析し,その堅牢性を示す。 実例では、多レベル勾配法を用いる。 標準のシングルレベルメソッドと比較すると、同じ検証精度を達成しながら、ファクター3以上のスピードアップを示している。

We present a new multilevel minimization framework for the training of deep residual networks (ResNets), which has the potential to significantly reduce training time and effort. Our framework is based on the dynamical system's viewpoint, which formulates a ResNet as the discretization of an initial value problem. The training process is then formulated as a time-dependent optimal control problem, which we discretize using different time-discretization parameters, eventually generating multilevel-hierarchy of auxiliary networks with different resolutions. The training of the original ResNet is then enhanced by training the auxiliary networks with reduced resolutions. By design, our framework is conveniently independent of the choice of the training strategy chosen on each level of the multilevel hierarchy. By means of numerical examples, we analyze the convergence behavior of the proposed method and demonstrate its robustness. For our examples we employ a multilevel gradient-based methods. Comparisons with standard single level methods show a speedup of more than factor three while achieving the same validation accuracy.
翻訳日:2022-12-13 23:42:44 公開日:2020-04-13
# 放射状ターボスピンエコー画像における肝分画のための深層学習畳み込みニューラルネットワークの比較

A Comparison of Deep Learning Convolution Neural Networks for Liver Segmentation in Radial Turbo Spin Echo Images ( http://arxiv.org/abs/2004.05731v1 )

ライセンス: Link先を確認
Lavanya Umapathy (1 and 2), Mahesh Bharath Keerthivasan (1 and 2), Jean-Phillipe Galons (2), Wyatt Unger (2), Diego Martin (2), Maria I Altbach (2) and Ali Bilgin (1 and 2 and 3) ((1) Department of Electrical and Computer Engineering, University of Arizona, Tucson, Arizona, (2) Department of Medical Imaging, University of Arizona, Tucson, Arizona, (3) Department of Biomedical Engineering, University of Arizona, Tucson, Arizona)(参考訳) モーションロバスト2Dラジアルターボスピンエコー(RADTSE)パルスシーケンスは、高分解能合成画像、複数のエコー時間(TE)でのT2重み付き画像、および1k空間取得による定量的T2マップを提供することができる。 本研究では,腹部RADTSE画像における肝の分画にディープラーニング畳み込みニューラルネットワーク(CNN)を用いる。 汎用的なサイス損失目的関数を持つUNETアーキテクチャを実装した。 3つの2D CNNが訓練され、1つはRADTSEシーケンスから得られた画像タイプである。 検証セットにおけるcnnの性能評価について検討した結果,te画像やt2マップで訓練されたcnnは合成画像よりも平均diceスコアが高いことがわかった。 このことは、組織におけるT2変異に関する情報がセグメンテーション性能の向上に役立つことを示唆している。

Motion-robust 2D Radial Turbo Spin Echo (RADTSE) pulse sequence can provide a high-resolution composite image, T2-weighted images at multiple echo times (TEs), and a quantitative T2 map, all from a single k-space acquisition. In this work, we use a deep-learning convolutional neural network (CNN) for the segmentation of liver in abdominal RADTSE images. A modified UNET architecture with generalized dice loss objective function was implemented. Three 2D CNNs were trained, one for each image type obtained from the RADTSE sequence. On evaluating the performance of the CNNs on the validation set, we found that CNNs trained on TE images or the T2 maps had higher average dice scores than the composite images. This, in turn, implies that the information regarding T2 variation in tissues aids in improving the segmentation performance.
翻訳日:2022-12-13 23:42:30 公開日:2020-04-13
# 勾配ドロップアウトによるメタラーニングの規則化

Regularizing Meta-Learning via Gradient Dropout ( http://arxiv.org/abs/2004.05859v1 )

ライセンス: Link先を確認
Hung-Yu Tseng, Yi-Wen Chen, Yi-Hsuan Tsai, Sifei Liu, Yen-Yu Lin, Ming-Hsuan Yang(参考訳) 少数の例で学習から学習までの新たなタスクに注目が集まる中、メタラーニングは、少数ショットの分類、強化学習、ドメインの一般化といった多くの問題に広く用いられている。 しかしメタ学習モデルは、メタ学習者が一般化するのに十分なトレーニングタスクがない場合、過度に適合する傾向にある。 ドロップアウトのような既存の手法はオーバーフィッティング問題に対処するために広く用いられているが、これらの手法は典型的には教師付きトレーニングにおいて単一のタスクのモデルを正規化するために設計されている。 本稿では,グラデーションベースメタラーニングにおける過剰適合のリスクを軽減し,簡便かつ効果的な手法を提案する。 具体的には、勾配に基づく適応段階において、深層ニューラルネットワークにおける各パラメータの内ループ最適化の勾配をランダムに落とし、拡張勾配が新しいタスクへの一般化を改善する。 提案する勾配降下正規化の一般的な形を示し、この項をベルヌーイ分布またはガウス分布からサンプリングできることを示す。 提案手法を検証するため,多数のコンピュータビジョンタスクに対する広範な実験と解析を行い,勾配のドロップアウト正規化がオーバーフィッティング問題を軽減し,様々な勾配に基づくメタ学習フレームワークの性能向上を実証した。

With the growing attention on learning-to-learn new tasks using only a few examples, meta-learning has been widely used in numerous problems such as few-shot classification, reinforcement learning, and domain generalization. However, meta-learning models are prone to overfitting when there are no sufficient training tasks for the meta-learners to generalize. Although existing approaches such as Dropout are widely used to address the overfitting problem, these methods are typically designed for regularizing models of a single task in supervised training. In this paper, we introduce a simple yet effective method to alleviate the risk of overfitting for gradient-based meta-learning. Specifically, during the gradient-based adaptation stage, we randomly drop the gradient in the inner-loop optimization of each parameter in deep neural networks, such that the augmented gradients improve generalization to new tasks. We present a general form of the proposed gradient dropout regularization and show that this term can be sampled from either the Bernoulli or Gaussian distribution. To validate the proposed method, we conduct extensive experiments and analysis on numerous computer vision tasks, demonstrating that the gradient dropout regularization mitigates the overfitting problem and improves the performance upon various gradient-based meta-learning frameworks.
翻訳日:2022-12-13 23:36:23 公開日:2020-04-13
# 階層的マルチモーダル表現に基づくファッションスタイルのための模倣学習

Imitation Learning for Fashion Style Based on Hierarchical Multimodal Representation ( http://arxiv.org/abs/2004.06229v1 )

ライセンス: Link先を確認
Shizhu Liu, Shanglin Yang, and Hui Zhou(参考訳) ファッションは複雑な社会現象である。 人々は専門家やファッションアイコンによるデモからファッションスタイルに従う。 しかし、機械エージェントにとって、デモからファッション専門家を模倣する学習は、特に高次元マルチモーダルな観察を行う環境における複雑なスタイルにおいて困難である。 ファッション・コンポジションに関する多くの研究は、スタイル・アイコンの動作を模倣する教師あり学習手法を利用している。 エージェントは与えられた服装のデモを巧みに模倣するため、微妙な違いを伴ってあるスタイルから別のスタイルへと移動することができる。 本研究では,模倣過程における階層的多モーダル表現(HM-AIRL)に基づく報酬関数を復元する逆逆強化学習形式を提案する。 階層的な関節表現は、報酬関数を回復するために、より包括的な合成服のデモンストレーションをモデル化することができる。 提案するhm-airlモデルは,マルチモーダル観察の変化にロバストな報酬関数を復元できることを実証し,異なるスタイル間の大きな変動下でポリシを学習できることを示した。

Fashion is a complex social phenomenon. People follow fashion styles from demonstrations by experts or fashion icons. However, for machine agent, learning to imitate fashion experts from demonstrations can be challenging, especially for complex styles in environments with high-dimensional, multimodal observations. Most existing research regarding fashion outfit composition utilizes supervised learning methods to mimic the behaviors of style icons. These methods suffer from distribution shift: because the agent greedily imitates some given outfit demonstrations, it can drift away from one style to another styles given subtle differences. In this work, we propose an adversarial inverse reinforcement learning formulation to recover reward functions based on hierarchical multimodal representation (HM-AIRL) during the imitation process. The hierarchical joint representation can more comprehensively model the expert composited outfit demonstrations to recover the reward function. We demonstrate that the proposed HM-AIRL model is able to recover reward functions that are robust to changes in multimodal observations, enabling us to learn policies under significant variation between different styles.
翻訳日:2022-12-13 23:35:37 公開日:2020-04-13
# 強化型ハード型デコーダによる抽象的レビューの要約

Aspect and Opinion Aware Abstractive Review Summarization with Reinforced Hard Typed Decoder ( http://arxiv.org/abs/2004.05755v1 )

ライセンス: Link先を確認
Yufei Tian, Jianfei Yu, Jing Jiang(参考訳) In this paper, we study abstractive review summarization.Observing that review summaries often consist of aspect words, opinion words and context words, we propose a two-stage reinforcement learning approach, which first predicts the output word type from the three types, and then leverages the predicted word type to generate the final word distribution.Experimental results on two Amazon product review datasets demonstrate that our method can consistently outperform several strong baseline approaches based on ROUGE scores.

In this paper, we study abstractive review summarization.Observing that review summaries often consist of aspect words, opinion words and context words, we propose a two-stage reinforcement learning approach, which first predicts the output word type from the three types, and then leverages the predicted word type to generate the final word distribution.Experimental results on two Amazon product review datasets demonstrate that our method can consistently outperform several strong baseline approaches based on ROUGE scores.
翻訳日:2022-12-13 23:35:18 公開日:2020-04-13
# 自発会話における句読影予測 : 単語埋め込みによるASR誤りを軽減できるか?

Punctuation Prediction in Spontaneous Conversations: Can We Mitigate ASR Errors with Retrofitted Word Embeddings? ( http://arxiv.org/abs/2004.05985v1 )

ライセンス: Link先を確認
{\L}ukasz Augustyniak, Piotr Szymanski, Miko{\l}aj Morzy, Piotr Zelasko, Adrian Szymczak, Jan Mizgajski, Yishay Carmiel, Najim Dehak(参考訳) 自動音声認識(ASR)システムは単語エラーを導入し、句読点予測モデルを混乱させ、句読点復元を困難なタスクに変換する。 これらの誤りは通常ホモニムの形式をとる。 ドメイン固有のデータへの埋め込みがASRエラーを緩和することを示す。 提案手法の主な貢献は,ホムニム埋め込みのアライメントの改善と句読点予測タスクにおける提案手法の検証である。 我々は,最先端モデルと比較して,句読点の精度が6.2%(疑問点)から9%(期間)に絶対的に向上したことを記録した。

Automatic Speech Recognition (ASR) systems introduce word errors, which often confuse punctuation prediction models, turning punctuation restoration into a challenging task. These errors usually take the form of homonyms. We show how retrofitting of the word embeddings on the domain-specific data can mitigate ASR errors. Our main contribution is a method for better alignment of homonym embeddings and the validation of the presented method on the punctuation prediction task. We record the absolute improvement in punctuation prediction accuracy between 6.2% (for question marks) to 9% (for periods) when compared with the state-of-the-art model.
翻訳日:2022-12-13 23:35:12 公開日:2020-04-13
# 認知症識別のための生成ネットワークを用いたデータ拡張

Data augmentation using generative networks to identify dementia ( http://arxiv.org/abs/2004.05989v1 )

ライセンス: Link先を確認
Bahman Mirheidari, Yilin Pan, Daniel Blackburn, Ronan O'Malley, Traci Walker, Annalena Venneri, Markus Reuber, Heidi Christensen(参考訳) データ制限は、医療応用のための機械学習分類器のトレーニングにおいて最も一般的な問題の1つである。 倫理的懸念とデータプライバシのため、そのような実験に採用できる人数は、一般的に、非医療データセットに貢献する参加者の数よりも少ない。 近年の研究では、生成モデルはデータ拡張の効果的なアプローチとして利用でき、最終的にはより堅牢な分類器の訓練に役立つことが示されている。 多くの研究が、このデータ拡張技術が画像とオーディオデータセットに有効であることを証明した。 本稿では,認知症自動検出システムで記録されたインタラクションから抽出した音声と音声の異なる特徴に対する類似したアプローチの適用について検討する。 2つの生成モデルを用いて、生成した合成サンプルがDNNベースの分類器の性能を改善する方法を示す。 メモリクリニックで見られる典型的な患者群を58%から74%に区別する4方向分類器のFスコアを16%改善した。

Data limitation is one of the most common issues in training machine learning classifiers for medical applications. Due to ethical concerns and data privacy, the number of people that can be recruited to such experiments is generally smaller than the number of participants contributing to non-healthcare datasets. Recent research showed that generative models can be used as an effective approach for data augmentation, which can ultimately help to train more robust classifiers sparse data domains. A number of studies proved that this data augmentation technique works for image and audio data sets. In this paper, we investigate the application of a similar approach to different types of speech and audio-based features extracted from interactions recorded with our automatic dementia detection system. Using two generative models we show how the generated synthesized samples can improve the performance of a DNN based classifier. The variational autoencoder increased the F-score of a four-way classifier distinguishing the typical patient groups seen in memory clinics from 58% to around 74%, a 16% improvement
翻訳日:2022-12-13 23:35:02 公開日:2020-04-13
# ニューラルテキスト生成モデルのリバースエンジニアリング構成

Reverse Engineering Configurations of Neural Text Generation Models ( http://arxiv.org/abs/2004.06201v1 )

ライセンス: Link先を確認
Yi Tay, Dara Bahri, Che Zheng, Clifford Brunk, Donald Metzler, Andrew Tomkins(参考訳) 本稿では,ニューラルテキスト生成モデルの基本的特性について,より深く理解することを目的とする。 モデリング選択の結果、機械生成テキストに現れるアーティファクトの研究は、生まれたばかりの研究領域である。 従来、これらのアーティファクトが生成したテキストで表される程度や程度はよく研究されていない。 生成的テキストモデルとそのアーティファクトをよりよく理解するために、与えられたモデルのいくつかのバリエーションのうちどれがテキストを生成しているかを識別する新しいタスクを提案し、モデリングの選択(サンプリングメソッド、トップ$k$確率、モデルアーキテクチャなど)が生成するテキストに検出可能なアーティファクトを残すかどうかを観察するための広範な診断テストを行う。 我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。 これは、ニューラルテキストジェネレータが以前考えられていたよりも様々なモデリング選択に敏感であることを示している。

This paper seeks to develop a deeper understanding of the fundamental properties of neural text generations models. The study of artifacts that emerge in machine generated text as a result of modeling choices is a nascent research area. Previously, the extent and degree to which these artifacts surface in generated text has not been well studied. In the spirit of better understanding generative text models and their artifacts, we propose the new task of distinguishing which of several variants of a given model generated a piece of text, and we conduct an extensive suite of diagnostic tests to observe whether modeling choices (e.g., sampling methods, top-$k$ probabilities, model architectures, etc.) leave detectable artifacts in the text they generate. Our key finding, which is backed by a rigorous set of experiments, is that such artifacts are present and that different modeling choices can be inferred by observing the generated text alone. This suggests that neural text generators may be more sensitive to various modeling choices than previously thought.
翻訳日:2022-12-13 23:34:47 公開日:2020-04-13
# 科学的に健全な項目を識別するためのカスケードニューラルアンサンブル

Cascade Neural Ensemble for Identifying Scientifically Sound Articles ( http://arxiv.org/abs/2004.06222v1 )

ライセンス: Link先を確認
Ashwin Karthik Ambalavanan, Murthy Devarakonda(参考訳) 背景: 体系的なレビューとメタ分析を行う上で重要な障壁は、科学的に適切な記事を見つけることである。 通常、この要件に適合する記事の1%未満は、非常に不均衡なタスクにつながる。 このタスクのために、機能工学と初期のニューラルネットワークモデルが研究されたが、結果を改善する機会がある。 方法: 論文を分類課題としてフィルタリングすることの問題点を整理し, MEDLINEから約50万件の注釈付きデータセットを用いて, 理科記事に事前学習したBERTの変種であるSciBERTのアンサンブルアーキテクチャを訓練, 試験した。 科学的に健全な物品を多段階のプロセスで同定するため,選択過程に類似した新しいカスケードアンサンブルを提案する。 本研究は,カスケードアンサンブルの性能を単一統合モデルおよび他の種類のアンサンブルと比較し,過去の研究結果と比較した。 結果: カスケード・アンサンブル・アーキテクチャは, 従来提案され, 50k記事の選抜サブセットで評価されたcnnモデルと比較して, 49.1%の誤差率削減を達成した。 全データセットにおいて、カスケードアンサンブルは 0.7639 f の尺度を達成し、全データセットを使用した以前の調査で報告された最高のパフォーマンスと比較してエラーレートが19.7%減少した。 結論: 事前学習された文脈エンコーダニューラルネットワーク(SciBERTなど)は、以前に研究されたモデルよりも優れた性能を示し、科学的に関連のある記事のフィルタリングにおいて手動で検索フィルタを作成する。 カスケードアンサンブルによって達成される優れたパフォーマンスは、このタスクとデータセットを超えて一般化する重要な結果であり、IRやデータベースのクエリ最適化に類似している。

Background: A significant barrier to conducting systematic reviews and meta-analysis is efficiently finding scientifically sound relevant articles. Typically, less than 1% of articles match this requirement which leads to a highly imbalanced task. Although feature-engineered and early neural networks models were studied for this task, there is an opportunity to improve the results. Methods: We framed the problem of filtering articles as a classification task, and trained and tested several ensemble architectures of SciBERT, a variant of BERT pre-trained on scientific articles, on a manually annotated dataset of about 50K articles from MEDLINE. Since scientifically sound articles are identified through a multi-step process we proposed a novel cascade ensemble analogous to the selection process. We compared the performance of the cascade ensemble with a single integrated model and other types of ensembles as well as with results from previous studies. Results: The cascade ensemble architecture achieved 0.7505 F measure, an impressive 49.1% error rate reduction, compared to a CNN model that was previously proposed and evaluated on a selected subset of the 50K articles. On the full dataset, the cascade ensemble achieved 0.7639 F measure, resulting in an error rate reduction of 19.7% compared to the best performance reported in a previous study that used the full dataset. Conclusion: Pre-trained contextual encoder neural networks (e.g. SciBERT) perform better than the models studied previously and manually created search filters in filtering for scientifically sound relevant articles. The superior performance achieved by the cascade ensemble is a significant result that generalizes beyond this task and the dataset, and is analogous to query optimization in IR and databases.
翻訳日:2022-12-13 23:34:30 公開日:2020-04-13
# 日中連続型市場入札のための深層強化学習フレームワーク

A Deep Reinforcement Learning Framework for Continuous Intraday Market Bidding ( http://arxiv.org/abs/2004.05940v1 )

ライセンス: Link先を確認
Ioannis Boukas, Damien Ernst, Thibaut Th\'eate, Adrien Bolland, Alexandre Huynen, Martin Buchwald, Christelle Wynants, Bertrand Corn\'elusse(参考訳) 可変エネルギー資源の大規模な統合は、エネルギー交換の大部分をより正確な予測ができるリアルタイムに近づけると予想されている。 この文脈では、短期的な電気市場、特に日内市場は、これらの交換を行うのに適した取引場と考えられている。 再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。 本稿では,中央集権的な注文書を通じて取引が行われる欧州の連続的日内市場において,エネルギー貯蔵の戦略的関与のための新たなモデリングフレームワークを提案する。 記憶装置オペレーターの目標は、そのユニットの運用上の制約を考慮して、取引地平線全体を通して受け取った利益の最大化である。 日内市場における取引の逐次的意思決定問題はマルコフ決定過程としてモデル化される。 適応Q反復アルゴリズムの非同期分散バージョンは、そのサンプリング効率のためにこの問題を解決するために選択される。 注文書の既存注文の大規模かつ可変な数は、ハイレベルなアクションと代替状態表現の使用を動機付けている。 歴史的データは、学習過程における探索問題に対処するために、多数の人工軌道の生成に使用される。 結果の政策はバックテストされ、現在の産業標準であるベンチマーク戦略と比較される。 その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。

The large integration of variable energy resources is expected to shift a large part of the energy exchanges closer to real-time, where more accurate forecasts are available. In this context, the short-term electricity markets and in particular the intraday market are considered a suitable trading floor for these exchanges to occur. A key component for the successful renewable energy sources integration is the usage of energy storage. In this paper, we propose a novel modelling framework for the strategic participation of energy storage in the European continuous intraday market where exchanges occur through a centralized order book. The goal of the storage device operator is the maximization of the profits received over the entire trading horizon, while taking into account the operational constraints of the unit. The sequential decision-making problem of trading in the intraday market is modelled as a Markov Decision Process. An asynchronous distributed version of the fitted Q iteration algorithm is chosen for solving this problem due to its sample efficiency. The large and variable number of the existing orders in the order book motivates the use of high-level actions and an alternative state representation. Historical data are used for the generation of a large number of artificial trajectories in order to address exploration issues during the learning process. The resulting policy is back-tested and compared against a benchmark strategy that is the current industrial standard. Results indicate that the agent converges to a policy that achieves in average higher total revenues than the benchmark strategy.
翻訳日:2022-12-13 23:33:27 公開日:2020-04-13
# MLPSVM:マルチラベル学習のための新しい並列サポートベクトルマシン

MLPSVM:A new parallel support vector machine to multi-label learning ( http://arxiv.org/abs/2004.05849v1 )

ライセンス: Link先を確認
Yanghong Liu and Jia Lu and Tingting Li(参考訳) マルチラベル学習は機械学習コミュニティの注目を集めている。 問題変換法バイナリ関連は、慣れ親しんだ単一ラベルをマルチラベルアルゴリズムに変換する。 二項関係法はその単純な構造と効率的なアルゴリズムのために広く用いられている。 しかし、バイナリとの関連性はラベル間のリンクを考慮せず、いくつかのタスクを扱うのが面倒である。 本稿では,シングルラベル分類にも利用できるマルチラベル学習アルゴリズムを提案する。 標準サポートベクトルマシンをベースとし、元の単一決定ハイパープレーンを2つの並列決定ハイパープレーンに変更し、マルチラベル並列サポートベクトルマシン(MLPSVM)と呼ぶ。 記事の最後に、MLPSVMは他のマルチラベル学習アルゴリズムと比較する。 実験の結果,このアルゴリズムはデータセット上でうまく機能することがわかった。

Multi-label learning has attracted the attention of the machine learning community. The problem conversion method Binary Relevance converts a familiar single label into a multi-label algorithm. The binary relevance method is widely used because of its simple structure and efficient algorithm. But binary relevance does not consider the links between labels, making it cumbersome to handle some tasks. This paper proposes a multi-label learning algorithm that can also be used for single-label classification. It is based on standard support vector machines and changes the original single decision hyperplane into two parallel decision hyper-planes, which call multi-label parallel support vector machine (MLPSVM). At the end of the article, MLPSVM is compared with other multi-label learning algorithms. The experimental results show that the algorithm performs well on data sets.
翻訳日:2022-12-13 23:27:40 公開日:2020-04-13
# 正規化流れを伴う軌道データの異常検出

Anomaly Detection in Trajectory Data with Normalizing Flows ( http://arxiv.org/abs/2004.05958v1 )

ライセンス: Link先を確認
Madson L. D. Dias, C\'esar Lincoln C. Mattos, Ticiana L. C. da Silva, Jos\'e Ant\^onio F. de Macedo, Wellington C. P. Silva(参考訳) 異常なデータパターンを検出するタスクは、現実的なアプリケーションでは困難であると同時に重要である。 空間データの文脈では、予期しない軌跡の認識は、高次元やパターン長の変動など、さらなる困難をもたらす。 我々は,分布サンプルを同定するための教師なし手法を提供するため,確率密度推定の観点からこの問題に取り組むことを目的としている。 より具体的には、ニューラルネットワークを用いたデータから複雑な密度推定を可能にする最近のフレームワークである、フローの正規化に基づくアプローチを追求する。 本提案は,軌道の各セグメントについて,流れの正規化の重要な特徴である正確なモデル推定値を計算する。 次に、セグメントの確率を1つのコヒーレントな軌道異常スコアに集約する。 このような戦略は、おそらく大きなシーケンスを異なる長さで処理できる。 実世界の軌道データを用いて, 正規化フローを用いた集約異常検出法(GRADINGS)を評価し, 従来の異常検出法と比較した。 計算実験で得られた有望な結果は、GRADINGS、特に自己回帰正規化フローを考慮した変種の実現可能性を示している。

The task of detecting anomalous data patterns is as important in practical applications as challenging. In the context of spatial data, recognition of unexpected trajectories brings additional difficulties, such as high dimensionality and varying pattern lengths. We aim to tackle such a problem from a probability density estimation point of view, since it provides an unsupervised procedure to identify out of distribution samples. More specifically, we pursue an approach based on normalizing flows, a recent framework that enables complex density estimation from data with neural networks. Our proposal computes exact model likelihood values, an important feature of normalizing flows, for each segment of the trajectory. Then, we aggregate the segments' likelihoods into a single coherent trajectory anomaly score. Such a strategy enables handling possibly large sequences with different lengths. We evaluate our methodology, named aggregated anomaly detection with normalizing flows (GRADINGS), using real world trajectory data and compare it with more traditional anomaly detection techniques. The promising results obtained in the performed computational experiments indicate the feasibility of the GRADINGS, specially the variant that considers autoregressive normalizing flows.
翻訳日:2022-12-13 23:27:04 公開日:2020-04-13
# 局所モデル特徴変換

Local Model Feature Transformations ( http://arxiv.org/abs/2004.06149v1 )

ライセンス: Link先を確認
CScott Brown(参考訳) 局所学習法は機械学習アルゴリズムの一般的なクラスである。 キャドレ全体の基本的な考え方は、いくつかの非ローカルモデルファミリーを選択し、それらの多くを隣り合うデータの小さなセクションでトレーニングし、結果のモデルを何らかの方法で'stitch'することである。 訓練データセットを小さな近隣に限定する限界があるため、局所学習モデルの研究は主に単純なモデルファミリーに限られている。 また、単純なモデルファミリは設計による複雑な構造を持たないため、個々の局所モデルを予測タスクに限定的に使用することができる。 我々は、十分に複雑な局所モデルファミリを用いて、学習パラメータなどの個々の局所モデルの様々な特性を、さらなる学習のための特徴として利用できると仮定する。 この論文は研究の現状を改善し、より複雑なモデルファミリーのローカライズのためのアルゴリズムを調査し、特徴抽出機構としての予測を超えた応用を研究することによって、この仮説の確立を目指している。 局所モデルの特徴変換という用語で特徴抽出のステップとして局所モデルを用いるこの一般的な手法を要約する。 この文書では、局所モデリングパラダイムをガウス過程、直交二次モデル、単語埋め込みモデルに拡張し、局所化線形分類器に対する既存の理論を拡張する。 次に,脳波からのてんかんイベント分類,胸部加速度計による活動モニタリング,3次元表面再構成,3次元点雲分割,手書き指分類,twitterフィードからのイベント検出への局所モデル機能変換の適用例を示す。

Local learning methods are a popular class of machine learning algorithms. The basic idea for the entire cadre is to choose some non-local model family, to train many of them on small sections of neighboring data, and then to `stitch' the resulting models together in some way. Due to the limits of constraining a training dataset to a small neighborhood, research on locally-learned models has largely been restricted to simple model families. Also, since simple model families have no complex structure by design, this has limited use of the individual local models to predictive tasks. We hypothesize that, using a sufficiently complex local model family, various properties of the individual local models, such as their learned parameters, can be used as features for further learning. This dissertation improves upon the current state of research and works toward establishing this hypothesis by investigating algorithms for localization of more complex model families and by studying their applications beyond predictions as a feature extraction mechanism. We summarize this generic technique of using local models as a feature extraction step with the term ``local model feature transformations.'' In this document, we extend the local modeling paradigm to Gaussian processes, orthogonal quadric models and word embedding models, and extend the existing theory for localized linear classifiers. We then demonstrate applications of local model feature transformations to epileptic event classification from EEG readings, activity monitoring via chest accelerometry, 3D surface reconstruction, 3D point cloud segmentation, handwritten digit classification and event detection from Twitter feeds.
翻訳日:2022-12-13 23:26:11 公開日:2020-04-13
# Einsum Networks: トラクタブル確率回路の高速かつスケーラブルな学習

Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic Circuits ( http://arxiv.org/abs/2004.06231v1 )

ライセンス: Link先を確認
Robert Peharz, Steven Lang, Antonio Vergari, Karl Stelzner, Alejandro Molina, Martin Trapp, Guy Van den Broeck, Kristian Kersting, Zoubin Ghahramani(参考訳) 確率回路(PC)は、広範囲の正確かつ効率的な推論ルーチンを許すため、確率的モデリングのための有望な道である。 最近の 'Deep-learning-style'' 実装ではスケーラビリティの向上が図られているが,計算グラフが疎結合であることから,実際のデータのトレーニングは依然として困難である。 本稿では,PCのための新しい実装設計であるEinsum Networks (EiNets)を提案する。 einetsの中核は、単一のモノリシックなeinsum操作で大量の算術演算を組み合わせることで、以前の実装と比較して最大2桁の高速化とメモリ節約を実現している。 アルゴリズム的な貢献として,自動微分を利用して期待最大化(EM)の実装を単純化できることが示される。 さらに, SVHN や CelebA などの到達範囲外なデータセットに対して, EiNets が十分にスケール可能であること, 忠実な生成画像モデルとして使用できることを実証した。

Probabilistic circuits (PCs) are a promising avenue for probabilistic modeling, as they permit a wide range of exact and efficient inference routines. Recent ``deep-learning-style'' implementations of PCs strive for a better scalability, but are still difficult to train on real-world data, due to their sparsely connected computational graphs. In this paper, we propose Einsum Networks (EiNets), a novel implementation design for PCs, improving prior art in several regards. At their core, EiNets combine a large number of arithmetic operations in a single monolithic einsum-operation, leading to speedups and memory savings of up to two orders of magnitude, in comparison to previous implementations. As an algorithmic contribution, we show that the implementation of Expectation-Maximization (EM) can be simplified for PCs, by leveraging automatic differentiation. Furthermore, we demonstrate that EiNets scale well to datasets which were previously out of reach, such as SVHN and CelebA, and that they can be used as faithful generative image models.
翻訳日:2022-12-13 23:25:28 公開日:2020-04-13
# 部分分類データからの分類規則の推定

Estimation of Classification Rules from Partially Classified Data ( http://arxiv.org/abs/2004.06237v1 )

ライセンス: Link先を確認
Geoffrey J. McLachlan, Daniel Ahfock(参考訳) 我々は、観測されたサンプルが、起源のクラスが知られているいくつかの観察(すなわち、対象のgクラスに関して分類されている)と、サンプルの残りの観測が分類されていない(すなわち、それらのクラスラベルが未知である)状況を考える。 未知パラメータのベクトルまで既知のクラス条件分布の場合、次の未分類観測の割り当てに対するベイズの割り当て規則を推定することを目的としている。 得られた混合分布から観測データを観測ランダムサンプルとみなすことができる状況において、EMアルゴリズムを介してg成分混合モデルを最大極大(ML)にすることで、分類データと未分類データの両方に基づいて直接的に推定することができる。 この仮定は、Rubin (1976) の先駆的な用語において、欠データ機構が無視可能である場合に適用される。 最初の可能性のアプローチは、いわゆる分類mlアプローチを使用して、欠落ラベルをクラス条件分布のパラメータと合わせて推定するパラメータとする、というものだ。 しかし、不整合推定に繋がる可能性があるため、注意の焦点はEMアルゴリズムの出現後に混合MLアプローチに移行した(Dempster et al., 1977)。 ここでは、部分的に分類されたサンプルから推定されるベイズの規則の漸近相対効率(ARE)に特に注意が払われる。 最後に,混合モデルにおけるml推定のためにラベルパターンの欠落が無視できない状況において,最近の結果を簡潔に検討する。

We consider the situation where the observed sample contains some observations whose class of origin is known (that is, they are classified with respect to the g underlying classes of interest), and where the remaining observations in the sample are unclassified (that is, their class labels are unknown). For class-conditional distributions taken to be known up to a vector of unknown parameters, the aim is to estimate the Bayes' rule of allocation for the allocation of subsequent unclassified observations. Estimation on the basis of both the classified and unclassified data can be undertaken in a straightforward manner by fitting a g-component mixture model by maximum likelihood (ML) via the EM algorithm in the situation where the observed data can be assumed to be an observed random sample from the adopted mixture distribution. This assumption applies if the missing-data mechanism is ignorable in the terminology pioneered by Rubin (1976). An initial likelihood approach was to use the so-called classification ML approach whereby the missing labels are taken to be parameters to be estimated along with the parameters of the class-conditional distributions. However, as it can lead to inconsistent estimates, the focus of attention switched to the mixture ML approach after the appearance of the EM algorithm (Dempster et al., 1977). Particular attention is given here to the asymptotic relative efficiency (ARE) of the Bayes' rule estimated from a partially classified sample. Lastly, we consider briefly some recent results in situations where the missing label pattern is non-ignorable for the purposes of ML estimation for the mixture model.
翻訳日:2022-12-13 23:25:08 公開日:2020-04-13
# 自己教師付きインスタンス適応による単眼深度推定

Monocular Depth Estimation with Self-supervised Instance Adaptation ( http://arxiv.org/abs/2004.05821v1 )

ライセンス: Link先を確認
Robert McCraith, Lukas Neumann, Andrew Zisserman, Andrea Vedaldi(参考訳) 近年の自己監督学習の進歩は、3次元の真理を監督に用いることなく、生のビデオデータから正確な単眼深度再構成を学習できることを実証している。 しかし、ロボットアプリケーションでは、シーンの複数のビューが利用可能または利用できない場合があり、ロボットのアクションに依存し、モノクロとマルチビューの再構築を切り替える。 この混合条件に対処するため,本研究では,既成の単眼深度再構成システムをテスト時に複数の画像に拡張する手法を提案する。 本手法は, 単分子再構成を行うために, 非標準的な事前学習に基づいて構築されるが, テスト時に自己超越を用いて, 複数の画像が利用可能になった場合のコンストラクション精度を向上する。 標準のKITTIベンチマークでは, 従来手法よりも平均25%の非絶対誤差(単眼, ステレオ, モノクロ+ステレオ)が常に優れており, 完全教師付き状態での精度は極めて高い。

Recent advances in self-supervised learning havedemonstrated that it is possible to learn accurate monoculardepth reconstruction from raw video data, without using any 3Dground truth for supervision. However, in robotics applications,multiple views of a scene may or may not be available, depend-ing on the actions of the robot, switching between monocularand multi-view reconstruction. To address this mixed setting,we proposed a new approach that extends any off-the-shelfself-supervised monocular depth reconstruction system to usemore than one image at test time. Our method builds on astandard prior learned to perform monocular reconstruction,but uses self-supervision at test time to further improve thereconstruction accuracy when multiple images are available.When used to update the correct components of the model, thisapproach is highly-effective. On the standard KITTI bench-mark, our self-supervised method consistently outperformsall the previous methods with an average 25% reduction inabsolute error for the three common setups (monocular, stereoand monocular+stereo), and comes very close in accuracy whencompared to the fully-supervised state-of-the-art methods.
翻訳日:2022-12-13 23:24:44 公開日:2020-04-13
# 直接時間関係抽出のためのロバスト事前学習ニューラルモデル

Robustly Pre-trained Neural Model for Direct Temporal Relation Extraction ( http://arxiv.org/abs/2004.06216v1 )

ライセンス: Link先を確認
Hong Guan, Jianfu Li, Hua Xu, Murthy Devarakonda(参考訳) 背景: 臨床イベントと時間的表現の関係を明らかにすることは、高度なAIアプリケーションで使用される臨床テキストを有意義に分析する上で重要な課題である。 これまでの研究では、最先端のパフォーマンスは改善の余地がある。 方法: 臨床領域のカスタマイズを含むbert (bidirectional encoder representations using transformers) およびアーキテクチャおよび/またはトレーニング戦略の改善を含むいくつかの変種について検討した。 2012 i2b2 時間関係課題データセットのセマンティックな部分集合である直接時間関係データセットを用いて,これらの手法の評価を行った。 その結果,10倍のコーパスを含む事前学習戦略を取り入れたRoBERTaでは,F値の絶対スコアが0.0864向上し(1.00スケール),SVM(サポートベクタマシン)モデルで達成した従来の最先端性能と比較して誤差率を24%低減した。 結論: 大規模コーパス上で事前訓練された現代の文脈言語モデリングニューラルネットワークは,高ニュアンスな臨床時間的関係タスクにおいても優れた性能を発揮する。

Background: Identifying relationships between clinical events and temporal expressions is a key challenge in meaningfully analyzing clinical text for use in advanced AI applications. While previous studies exist, the state-of-the-art performance has significant room for improvement. Methods: We studied several variants of BERT (Bidirectional Encoder Representations using Transformers) some involving clinical domain customization and the others involving improved architecture and/or training strategies. We evaluated these methods using a direct temporal relations dataset which is a semantically focused subset of the 2012 i2b2 temporal relations challenge dataset. Results: Our results show that RoBERTa, which employs better pre-training strategies including using 10x larger corpus, has improved overall F measure by 0.0864 absolute score (on the 1.00 scale) and thus reducing the error rate by 24% relative to the previous state-of-the-art performance achieved with an SVM (support vector machine) model. Conclusion: Modern contextual language modeling neural networks, pre-trained on a large corpus, achieve impressive performance even on highly-nuanced clinical temporal relation tasks.
翻訳日:2022-12-13 23:18:09 公開日:2020-04-13
# コンセプトドリフトによる学習 : レビュー

Learning under Concept Drift: A Review ( http://arxiv.org/abs/2004.05785v1 )

ライセンス: Link先を確認
Jie Lu, Anjin Liu, Fan Dong, Feng Gu, Joao Gama, Guangquan Zhang(参考訳) コンセプトドリフトは、時間とともにストリーミングデータの基盤となる分散が予期せぬ変化を記述している。 概念ドリフト研究はドリフトの検出、理解、適応のための方法論と手法の開発を含む。 データ分析により、ドリフト環境における機械学習は、ドリフトに対処しなければ学習結果の低さをもたらすことが明らかになった。 研究者は、どの研究トピックが重要か、データ分析タスクに関連技術を適用するかを特定するのに役立ち、現在の研究動向や概念ドリフト分野の傾向を、高品質で指導的なレビューを行う必要がある。 また、近年のコンセプトドリフトの急速な発展により、概念ドリフトによる学習の方法論が顕著に体系化され、文献に言及されていない枠組みが明らかになった。 本稿では,概念ドリフト関連研究分野における130以上の高品質な出版物をレビューし,方法論と手法の最新の展開を分析し,概念ドリフト検出,概念ドリフト理解,概念ドリフト適応という3つの主要コンポーネントを含む概念ドリフト下での学習の枠組みを確立する。 本稿では、概念ドリフト処理を目的とした学習アルゴリズムの性能評価に使用される10の一般的な合成データセットと14の公開ベンチマークデータセットをリストし、議論する。 また,コンセプトドリフト関連研究の方向性についても論じる。 最先端の知識を提供することで、この調査は、コンセプトドリフト下での学習分野の研究発展に関する研究者の理解を直接支援する。

Concept drift describes unforeseeable changes in the underlying distribution of streaming data over time. Concept drift research involves the development of methodologies and techniques for drift detection, understanding and adaptation. Data analysis has revealed that machine learning in a concept drift environment will result in poor learning results if the drift is not addressed. To help researchers identify which research topics are significant and how to apply related techniques in data analysis tasks, it is necessary that a high quality, instructive review of current research developments and trends in the concept drift field is conducted. In addition, due to the rapid development of concept drift in recent years, the methodologies of learning under concept drift have become noticeably systematic, unveiling a framework which has not been mentioned in literature. This paper reviews over 130 high quality publications in concept drift related research areas, analyzes up-to-date developments in methodologies and techniques, and establishes a framework of learning under concept drift including three main components: concept drift detection, concept drift understanding, and concept drift adaptation. This paper lists and discusses 10 popular synthetic datasets and 14 publicly available benchmark datasets used for evaluating the performance of learning algorithms aiming at handling concept drift. Also, concept drift related research directions are covered and discussed. By providing state-of-the-art knowledge, this survey will directly support researchers in their understanding of research developments in the field of learning under concept drift.
翻訳日:2022-12-13 23:17:47 公開日:2020-04-13
# stas: 降水のバイアス補正を改善するための時空間的深部特徴の適応選択

STAS: Adaptive Selecting Spatio-Temporal Deep Features for Improving Bias Correction on Precipitation ( http://arxiv.org/abs/2004.05793v1 )

ライセンス: Link先を確認
Yiqun Liu, Shouzhen Chen, Lei Chen, Hai Chu, Xiaoyang Xu, Junping Zhang, Leiming Ma(参考訳) 数値気象予測(NWP)は、時間内に壊滅的な降雨を予測することによって、人間の苦痛を軽減することができる。 世界で一般的に使われているNWPは、中距離気象予報センター(EC)である。 しかし, 降水メカニズムを十分に理解していないため, BCoP (Bias Correcting on Precipitation) によるEC予測の修正が必要である。 既存のbcpsは、限られた事前データと固定時空間(st)スケールに苦しむ。 そこで本稿では,ST特徴選択機構(SFM/TFM)を用いて,ECから最適なST正規性を選択するための,時空間特徴自動選択(STAS)モデルを提案する。 入力特性が異なるため、これらの2つのメカニズムは自動的に空間スケールと時間スケールを調整できる。 ECパブリックデータセットの実験では、8つの公開されたBCoPメソッドと比較して、STASはいくつかの基準で最先端のパフォーマンスを示す。 さらに,SFM/TFMはBCoPの性能,特に降水量の増加に有効であることを示す。

Numerical Weather Prediction (NWP) can reduce human suffering by predicting disastrous precipitation in time. A commonly-used NWP in the world is the European Centre for medium-range weather forecasts (EC). However, it is necessary to correct EC forecast through Bias Correcting on Precipitation (BCoP) since we still have not fully understood the mechanism of precipitation, making EC often have some biases. The existing BCoPs suffers from limited prior data and the fixed Spatio-Temporal (ST) scale. We thus propose an end-to-end deep-learning BCoP model named Spatio-Temporal feature Auto-Selective (STAS) model to select optimal ST regularity from EC via the ST Feature-selective Mechanisms (SFM/TFM). Given different input features, these two mechanisms can automatically adjust the spatial and temporal scales for correcting. Experiments on an EC public dataset indicate that compared with 8 published BCoP methods, STAS shows state-of-the-art performance on several criteria of BCoP, named threat scores (TS). Further, ablation studies justify that the SFM/TFM indeed work well in boosting the performance of BCoP, especially on the heavy precipitation.
翻訳日:2022-12-13 23:17:25 公開日:2020-04-13
# 概念ドリフト適応のための領域ドリフト分解に基づく多元多元重みアンサンブル

Diverse Instances-Weighting Ensemble based on Region Drift Disagreement for Concept Drift Adaptation ( http://arxiv.org/abs/2004.05810v1 )

ライセンス: Link先を確認
Anjin Liu, Jie Lu, Guangquan Zhang(参考訳) 概念ドリフトは、基盤となるデータの分布の変化を指し、進化するデータストリームの固有の特性である。 動的分類器を用いたアンサンブル学習は概念ドリフトの効率的な処理方法であることが証明された。 しかし、ストリームの進化とともにアンサンブルの多様性を作り維持する最善の方法は、依然として難しい問題である。 入力,出力,分類器パラメータを用いて多様性を推定するのとは対照的に,アンサンブルメンバーが地域分布変化の確率に一致しているかに基づいた多様性測定を提案する。 本手法では, 地域分布変化に対する推定を事例重みとして用いた。 異なるスキームを通して異なる領域セットを構築すると、ドリフト推定結果が異なる結果となり、ダイバーシティを生み出す。 多様性を最大化するために最も一致しない分類器が選択される。 そこで,データストリーム分類問題に対する概念ドリフトに対処するために,diwe(diversative instance weighting ensemble)と呼ばれるインスタンスベースアンサンブル学習アルゴリズムを開発した。 各種合成および実世界のデータストリームベンチマークの評価は,提案アルゴリズムの有効性と利点を示す。

Concept drift refers to changes in the distribution of underlying data and is an inherent property of evolving data streams. Ensemble learning, with dynamic classifiers, has proved to be an efficient method of handling concept drift. However, the best way to create and maintain ensemble diversity with evolving streams is still a challenging problem. In contrast to estimating diversity via inputs, outputs, or classifier parameters, we propose a diversity measurement based on whether the ensemble members agree on the probability of a regional distribution change. In our method, estimations over regional distribution changes are used as instance weights. Constructing different region sets through different schemes will lead to different drift estimation results, thereby creating diversity. The classifiers that disagree the most are selected to maximize diversity. Accordingly, an instance-based ensemble learning algorithm, called the diverse instance weighting ensemble (DiwE), is developed to address concept drift for data stream classification problems. Evaluations of various synthetic and real-world data stream benchmarks show the effectiveness and advantages of the proposed algorithm.
翻訳日:2022-12-13 23:16:49 公開日:2020-04-13
# 病理組織GANを用いた腫瘍組織の低次元多様体の学習

Learning a low dimensional manifold of real cancer tissue with PathologyGAN ( http://arxiv.org/abs/2004.06517v1 )

ライセンス: Link先を確認
Adalberto Claudio Quiros, Roderick Murray-Smith, and Ke Yuan(参考訳) デジタル病理学におけるディープラーニングの応用は、疾患の診断と理解を改善することを約束している。 本研究では,高忠実な癌組織像をシミュレートし,実際の画像を解釈可能な低次元潜在空間にマッピングする深層生成モデルを提案する。 このモデルの鍵は、以前に開発された生成的敵ネットワークであるPathologyGANによって訓練されたエンコーダである。 乳がんコホート249K画像を用いて潜伏空間について検討した。 潜伏空間は組織の形態学的特徴(例えば癌、リンパ球、間質細胞のパターン)をコードしている。 さらに, 潜伏空間は, 高リスク患者群において, 組織構造を明瞭に集積した集合体を呈する。

Application of deep learning in digital pathology shows promise on improving disease diagnosis and understanding. We present a deep generative model that learns to simulate high-fidelity cancer tissue images while mapping the real images onto an interpretable low dimensional latent space. The key to the model is an encoder trained by a previously developed generative adversarial network, PathologyGAN. We study the latent space using 249K images from two breast cancer cohorts. We find that the latent space encodes morphological characteristics of tissues (e.g. patterns of cancer, lymphocytes, and stromal cells). In addition, the latent space reveals distinctly enriched clusters of tissue architectures in the high-risk patient group.
翻訳日:2022-12-13 23:07:43 公開日:2020-04-13
# コーパス間の意味的差異を研究するためのコンパスアライメント分布埋め込み

Compass-aligned Distributional Embeddings for Studying Semantic Differences across Corpora ( http://arxiv.org/abs/2004.06519v1 )

ライセンス: Link先を確認
Federico Bianchi and Valerio Di Carlo and Paolo Nicoli and Matteo Palmonari(参考訳) Word2vecは、効率性、生成した表現の質、認識基盤の良さから、単語埋め込みを生成する最もよく使われるアルゴリズムの1つである。 しかし、単語の意味は静的ではなく、言葉が使われる文脈に依存している。 時間, 場所, 話題, その他の要因に依存する単語の意味の相違は, 異なるコーパスから生成された埋め込みをこれらの要因を表すコレクションに解析することによって研究することができる。 例えば、言語進化は、異なる期間に発行されたニュース記事のコレクションを使用して研究することができる。 本稿では,異なるコーパスから生成された埋め込みを比較し,コーパス間の対応や意味の相違を見出すことができる,単語埋め込みを用いたクロスコーポラ言語研究を支援する汎用フレームワークを提案する。 CADEは私たちのフレームワークの中核的なコンポーネントであり、異なるコーパスから生成された埋め込みを整列する重要な問題を解決する。 特に,CADEの有効性,汎用性,堅牢性に関する確固たる証拠の提供に重点を置いている。 この目的のために, 時間的単語埋め込みから言語定位, 話題分析まで, 異なる領域で定量的・質的実験を行う。 実験の結果、cadeはいくつかの競合するアプローチが利用可能なタスクにおいて最先端または優れた性能を達成できるが、様々なドメインで使用できる一般的なメソッドを提供することが示唆された。 最後に、我々の実験は、コーパスの語彙重なりの程度に大きく依存するアライメントが信頼できる条件に光を当てた。

Word2vec is one of the most used algorithms to generate word embeddings because of a good mix of efficiency, quality of the generated representations and cognitive grounding. However, word meaning is not static and depends on the context in which words are used. Differences in word meaning that depends on time, location, topic, and other factors, can be studied by analyzing embeddings generated from different corpora in collections that are representative of these factors. For example, language evolution can be studied using a collection of news articles published in different time periods. In this paper, we present a general framework to support cross-corpora language studies with word embeddings, where embeddings generated from different corpora can be compared to find correspondences and differences in meaning across the corpora. CADE is the core component of our framework and solves the key problem of aligning the embeddings generated from different corpora. In particular, we focus on providing solid evidence about the effectiveness, generality, and robustness of CADE. To this end, we conduct quantitative and qualitative experiments in different domains, from temporal word embeddings to language localization and topical analysis. The results of our experiments suggest that CADE achieves state-of-the-art or superior performance on tasks where several competing approaches are available, yet providing a general method that can be used in a variety of domains. Finally, our experiments shed light on the conditions under which the alignment is reliable, which substantially depends on the degree of cross-corpora vocabulary overlap.
翻訳日:2022-12-13 23:07:34 公開日:2020-04-13
# 事前学習型ニューラルネットワーク翻訳モデルの強化カリキュラム学習

Reinforced Curriculum Learning on Pre-trained Neural Machine Translation Models ( http://arxiv.org/abs/2004.05757v1 )

ライセンス: Link先を確認
Mingjun Zhao, Haijiang Wu, Di Niu and Xiaoli Wang(参考訳) ニューラルネットワーク翻訳(NMT)の競争性能は、大量のトレーニングデータに依存している。 しかし、高品質な翻訳ペアの獲得には専門家の知識が必要であり、費用がかかる。 したがって、様々な品質と特徴を持つサンプルのデータセットを最大限に活用するには、nmtでは重要ながら未熟な問題となる。 ノイズや難易度の評価などのヒューリスティックに基づいて,データ入力順序を規定することで,モデルの性能を最適化するカリキュラム学習手法がNMTに導入されている。 しかし、既存の手法ではスクラッチからトレーニングする必要があるが、実際にはほとんどのnmtモデルは既にビッグデータで事前トレーニングされている。 さらに、ヒューリスティックとして、それらはうまく一般化しない。 本稿では,従来のトレーニングセットから影響力のあるデータサンプルを再選択し,強化学習問題として定式化することで,事前学習したNMTモデルを改善するカリキュラムの学習を目的とする。 具体的には,特定のサンプルによるモデル性能の期待変化を批評家ネットワークが予測する決定論的アクタ-クリティックに基づくデータ選択フレームワークを提案するとともに,アクタネットワークが提示したサンプルのランダムバッチの中から最適なサンプルを選択することを学習する。 いくつかの翻訳データセットの実験により,本手法は,新たなトレーニングデータを用いることなく,オリジナルバッチトレーニングが天井に到達した際のNMTの性能をさらに向上し,強力なベースライン法を著しく上回ることを示す。

The competitive performance of neural machine translation (NMT) critically relies on large amounts of training data. However, acquiring high-quality translation pairs requires expert knowledge and is costly. Therefore, how to best utilize a given dataset of samples with diverse quality and characteristics becomes an important yet understudied question in NMT. Curriculum learning methods have been introduced to NMT to optimize a model's performance by prescribing the data input order, based on heuristics such as the assessment of noise and difficulty levels. However, existing methods require training from scratch, while in practice most NMT models are pre-trained on big data already. Moreover, as heuristics, they do not generalize well. In this paper, we aim to learn a curriculum for improving a pre-trained NMT model by re-selecting influential data samples from the original training set and formulate this task as a reinforcement learning problem. Specifically, we propose a data selection framework based on Deterministic Actor-Critic, in which a critic network predicts the expected change of model performance due to a certain sample, while an actor network learns to select the best sample out of a random batch of samples presented to it. Experiments on several translation datasets show that our method can further improve the performance of NMT when original batch training reaches its ceiling, without using additional new training data, and significantly outperforms several strong baseline methods.
翻訳日:2022-12-13 23:07:11 公開日:2020-04-13
# NEMO DNNによる展開モデルの量子化

Technical Report: NEMO DNN Quantization for Deployment Model ( http://arxiv.org/abs/2004.05930v1 )

ライセンス: Link先を確認
Francesco Conti(参考訳) この技術レポートは、Deep Neural Network(DNN)層量子化のための正式なフレームワークを定義することを目的としており、特に最終デプロイメントに関連する問題に焦点を当てている。 NEMO(Neural Minimization for pytOrch)フレームワークのドキュメントとしても機能する。 nemoで使われる4つのdnn表現(fullprecision、fakequantized、quntizeddeployable、integerdeployable)は、特に後者の2つを形式的に定義することに焦点を当てている。 このモデルの重要な特徴、特にIntegerDeployable表現は、純粋に整数を使ったDNN推論を可能にすることである。

This technical report aims at defining a formal framework for Deep Neural Network (DNN) layer-wise quantization, focusing in particular on the problems related to the final deployment. It also acts as a documentation for the NEMO (NEural Minimization for pytOrch) framework. It describes the four DNN representations used in NEMO (FullPrecision, FakeQuantized, QuantizedDeployable and IntegerDeployable), focusing in particular on a formal definition of the latter two. An important feature of this model, and in particular the IntegerDeployable representation, is that it enables DNN inference using purely integers - without resorting to real-valued numbers in any part of the computation and without relying on an explicit fixed-point numerical representation.
翻訳日:2022-12-13 23:00:06 公開日:2020-04-13
# 混合精度ニューラルネットワークにおける微分可能探索の再考

Rethinking Differentiable Search for Mixed-Precision Neural Networks ( http://arxiv.org/abs/2004.05795v1 )

ライセンス: Link先を確認
Zhaowei Cai and Nuno Vasconcelos(参考訳) 低ビット幅に量子化された重みとアクティベーションを持つ低精度ネットワークは、エッジデバイスでの推論を加速するために広く利用されている。 しかし、現在のソリューションは一様であり、すべてのフィルタに同じビット幅を使用する。 これは異なるフィルタの異なる感度を考慮せず、準最適である。 混合精度ネットワークは、ビット幅を個々のフィルタ要求に調整することでこの問題に対処する。 本研究では,最適混合精度ネットワーク探索(MPS)の問題点を考察する。 離散的な探索空間と組合せ最適化の難しさを回避するために,MPS問題のユニークな特性を活用することで効率を向上させるために,新たな微分可能な探索アーキテクチャを提案する。 EdMIPS(Efficient differentiable MIxed-Precision Network Search)法は、複数の人気ネットワークに対して最適なビット割り当てを見つけるのに有効であり、例えばInception-V3のような大きなモデルを、プロキシタスクを適切な時間でImageNet上で直接検索することができる。 学習された混合精度ネットワークは、その均一なネットワークを著しく上回っている。

Low-precision networks, with weights and activations quantized to low bit-width, are widely used to accelerate inference on edge devices. However, current solutions are uniform, using identical bit-width for all filters. This fails to account for the different sensitivities of different filters and is suboptimal. Mixed-precision networks address this problem, by tuning the bit-width to individual filter requirements. In this work, the problem of optimal mixed-precision network search (MPS) is considered. To circumvent its difficulties of discrete search space and combinatorial optimization, a new differentiable search architecture is proposed, with several novel contributions to advance the efficiency by leveraging the unique properties of the MPS problem. The resulting Efficient differentiable MIxed-Precision network Search (EdMIPS) method is effective at finding the optimal bit allocation for multiple popular networks, and can search a large model, e.g. Inception-V3, directly on ImageNet without proxy task in a reasonable amount of time. The learned mixed-precision networks significantly outperform their uniform counterparts.
翻訳日:2022-12-13 22:59:44 公開日:2020-04-13
# 機械読解から対話状態追跡へ:ギャップを埋める

From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap ( http://arxiv.org/abs/2004.05827v1 )

ライセンス: Link先を確認
Shuyang Gao, Sanchit Agarwal, Tagyoung Chung, Di Jin, Dilek Hakkani-Tur(参考訳) 対話状態追跡(DST)はタスク指向の対話システムの中心にある。 しかし、ラベル付きデータの不足は、さまざまなドメインで動作する正確で堅牢な状態追跡システムを構築する上での障害となる。 既存のアプローチでは、状態情報と対話データを必要とすることが多く、未知の領域に一般化する能力は限られている。 本稿では、モデルアーキテクチャとデータセットの2つの観点から、状態追跡における機械読解(RC)の利用を提案する。 対話状態のスロットタイプをカテゴリー的あるいは抽出的に分割し,複数重みとスパンベースの読み理解モデルから利点を借用する。 本手法は,MultiWOZ 2.1の完全トレーニングデータに対して,現在の目標精度に近い精度で達成する。 さらに重要なことは、機械読解データセットを活用することで、ドメイン内データの可用性が制限された場合、従来のアプローチを多くのマージンで上回らせます。 最後に、状態追跡データ、すなわちゼロショットシナリオがなくても、提案手法はMultiWOZ 2.1の30スロット中12スロットにおいて90%以上の平均スロット精度を達成する。

Dialogue state tracking (DST) is at the heart of task-oriented dialogue systems. However, the scarcity of labeled data is an obstacle to building accurate and robust state tracking systems that work across a variety of domains. Existing approaches generally require some dialogue data with state information and their ability to generalize to unknown domains is limited. In this paper, we propose using machine reading comprehension (RC) in state tracking from two perspectives: model architectures and datasets. We divide the slot types in dialogue state into categorical or extractive to borrow the advantages from both multiple-choice and span-based reading comprehension models. Our method achieves near the current state-of-the-art in joint goal accuracy on MultiWOZ 2.1 given full training data. More importantly, by leveraging machine reading comprehension datasets, our method outperforms the existing approaches by many a large margin in few-shot scenarios when the availability of in-domain data is limited. Lastly, even without any state tracking data, i.e., zero-shot scenario, our proposed approach achieves greater than 90% average slot accuracy in 12 out of 30 slots in MultiWOZ 2.1.
翻訳日:2022-12-13 22:59:25 公開日:2020-04-13
# Fact Checking Explanations の生成

Generating Fact Checking Explanations ( http://arxiv.org/abs/2004.05773v1 )

ライセンス: Link先を確認
Pepa Atanasova and Jakob Grue Simonsen and Christina Lioma and Isabelle Augenstein(参考訳) 自動ファクトチェックに関する既存の作業のほとんどは、メタデータ、ソーシャルネットワークのスプレッド、クレームで使われる言語、そして最近ではクレームを支持する証拠や否定する証拠に基づいてクレームの妥当性を予測することに関係している。 まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。 本稿では,これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法と,このタスクがveracity予測と協調してモデル化できる方法について,最初の研究を行う。 この結果から,両目標を個別にトレーニングするのではなく同時に最適化することで,事実確認システムの性能を向上させることが示唆された。 また,手動による評価の結果から,マルチタスクモデルにおいても,生成した説明の情報性,カバレッジ,全体的な品質が向上することが示唆された。

Most existing work on automated fact checking is concerned with predicting the veracity of claims based on metadata, social network spread, language used in claims, and, more recently, evidence supporting or denying claims. A crucial piece of the puzzle that is still missing is to understand how to automate the most elaborate part of the process -- generating justifications for verdicts on claims. This paper provides the first study of how these explanations can be generated automatically based on available claim context, and how this task can be modelled jointly with veracity prediction. Our results indicate that optimising both objectives at the same time, rather than training them separately, improves the performance of a fact checking system. The results of a manual evaluation further suggest that the informativeness, coverage and overall quality of the generated explanations are also improved in the multi-task model.
翻訳日:2022-12-13 22:59:08 公開日:2020-04-13
# MLR:マルチタスク学習を用いた2段階会話クエリ書き換えモデル

MLR: A Two-stage Conversational Query Rewriting Model with Multi-task Learning ( http://arxiv.org/abs/2004.05812v1 )

ライセンス: Link先を確認
Shuangyong Song, Chao Wang, Qianqian Xie, Xinxing Zu, Huan Chen, Haiqing Chen(参考訳) 会話の文脈理解は、対話システム構築に不可欠である会話履歴からユーザの本当の意図を認識することを目的としている。 しかし、オープンドメインでのマルチターン会話理解は依然として非常に困難であり、システムは重要な情報を抽出し、様々なオープントピックのコンテキストにおける依存関係を解決する必要がある。 本稿では,シーケンスラベリングとクエリリライトに関するマルチタスクモデルである対話型クエリリライトモデルmlrを提案する。 MLRは、マルチターン対話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝え、マルチターン対話モデリングの難しさを軽減する。 モデルでは、クエリ書き換えをシーケンス生成問題として定式化し、補助単語カテゴリラベル予測タスクを介して単語カテゴリ情報を導入する。 モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,実験を行う。 実験の結果,本モデルは比較モデルよりも優れており,書き直し性能を向上させる上での単語カテゴリ情報の有効性が証明された。

Conversational context understanding aims to recognize the real intention of user from the conversation history, which is critical for building the dialogue system. However, the multi-turn conversation understanding in open domain is still quite challenging, which requires the system extracting the important information and resolving the dependencies in contexts among a variety of open topics. In this paper, we propose the conversational query rewriting model - MLR, which is a Multi-task model on sequence Labeling and query Rewriting. MLR reformulates the multi-turn conversational queries into a single turn query, which conveys the true intention of users concisely and alleviates the difficulty of the multi-turn dialogue modeling. In the model, we formulate the query rewriting as a sequence generation problem and introduce word category information via the auxiliary word category label predicting task. To train our model, we construct a new Chinese query rewriting dataset and conduct experiments on it. The experimental results show that our model outperforms compared models, and prove the effectiveness of the word category information in improving the rewriting performance.
翻訳日:2022-12-13 22:58:53 公開日:2020-04-13
# 凍結変圧器言語モデルとAXELを用いた言語間ゼロ・フルショットHate音声検出

Cross-lingual Zero- and Few-shot Hate Speech Detection Utilising Frozen Transformer Language Models and AXEL ( http://arxiv.org/abs/2004.13850v1 )

ライセンス: Link先を確認
Lukas Stappen, Fabian Brunn, Bj\"orn Schuller(参考訳) 特に低リソース言語におけるヘイトスピーチの検出は、ささいな課題です。 そこで我々は,HackEvalチャレンジデータセット上で,一言語学習に加えて,クロスランガルゼロショットと少数ショット学習を学習するための,凍結事前学習型トランスフォーマーに基づく調整アーキテクチャを開発した。 新たなアテンションベースの分類ブロックAXELでは,英語とスペイン語のサブセットに対して高い競争力を示す。 また、英語のサブセットを再サンプリングし、将来有意義な比較を可能にする。

Detecting hate speech, especially in low-resource languages, is a non-trivial challenge. To tackle this, we developed a tailored architecture based on frozen, pre-trained Transformers to examine cross-lingual zero-shot and few-shot learning, in addition to uni-lingual learning, on the HatEval challenge data set. With our novel attention-based classification block AXEL, we demonstrate highly competitive results on the English and Spanish subsets. We also re-sample the English subset, enabling additional, meaningful comparisons in the future.
翻訳日:2022-12-13 22:57:36 公開日:2020-04-13