このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20201108となっている論文です。

PDF登録状況(公開日: 20201108)

TitleAuthorsAbstract論文公表日・翻訳日
# ナノフォトニック分子からのスクイーズ光

Squeezed light from a nanophotonic molecule ( http://arxiv.org/abs/2001.09474v2 )

ライセンス: Link先を確認
Y. Zhang, M. Menotti, K. Tan, V.D. Vaidya, D.H. Mahler, L.G. Helt, L. Zatti, M. Liscidini, B. Morrison, Z. Vernon(参考訳) フォトニック分子は2つ以上の光共振器から構成され、各共振器のモードの一部が他方と結合するように配置される。 このような構造は、2レベルシステムの動作のエミュレート、ラシング、オンデマンド光ストレージと検索に使われてきた。 結合共振器は集積デバイスの分散工学にも使われ、非線形光学応用の性能を高めている。 このような統合非線形構造の繊細な工学は、量子情報処理システムにおいて、スケーラブルな非古典光源を開発するために必要である。 本研究では、2つの結合したマイクロリング共振器からなるフォトニック分子をナノフォトニックチップ上に実装し、望ましくない寄生性非線形過程のノイズによって汚染されない強い励起光を生成するように設計された。 フォトニック分子を選択的に結合させ、望ましくない過程に関与するモードのみをハイブリダイズすることにより、寄生パラメトリック蛍光の抑制を実現する。 この戦略により、マイクロリング共振器は縮退したスクイーズ光を効率的に発生させることができる: 単純な単一共振器構造がなければ、ポンプの電力効率を著しく損なうことなく非線形ノイズによる汚染を回避できなくなり、したがって弱い縮退スクイーズのみを発生させることに制限される。 我々はこの装置を用いて, ナノフォトニクス源から報告されている最大のスクイーズ量である 1.65(1) db を直接測定し, 広帯域で縮退した光を8(1) dbで生成する。

Photonic molecules are composed of two or more optical resonators, arranged such that some of the modes of each resonator are coupled to those of the other. Such structures have been used for emulating the behaviour of two-level systems, lasing, and on-demand optical storage and retrieval. Coupled resonators have also been used for dispersion engineering of integrated devices, enhancing their performance for nonlinear optical applications. Delicate engineering of such integrated nonlinear structures is required for developing scalable sources of non-classical light to be deployed in quantum information processing systems. In this work, we demonstrate a photonic molecule composed of two coupled microring resonators on an integrated nanophotonic chip, designed to generate strongly squeezed light uncontaminated by noise from unwanted parasitic nonlinear processes. By tuning the photonic molecule to selectively couple and thus hybridize only the modes involved in the unwanted processes, suppression of parasitic parametric fluorescence is accomplished. This strategy enables the use of microring resonators for the efficient generation of degenerate squeezed light: without it, simple single-resonator structures cannot avoid contamination from nonlinear noise without significantly compromising pump power efficiency, and are thus limited to generating only weak degenerate squeezing. We use this device to generate 8(1) dB of broadband degenerate squeezed light on-chip, with 1.65(1) dB directly measured, which is the largest amount of squeezing yet reported from any nanophotonic source.
翻訳日:2023-06-05 21:45:26 公開日:2020-11-08
# 消散性量子スクイーズによる非定常力センシング

Nonstationary force sensing under dissipative mechanical quantum squeezing ( http://arxiv.org/abs/2007.13051v2 )

ライセンス: Link先を確認
D. N. Bernal-Garc\'ia, H. Vinck-Posada, M. J. Woolley(参考訳) 機械振動子を駆動する古典的力の2音駆動下での静電・非定常測定について検討した。 本研究では,線形スペクトル測定の感度を定量化するために,信号対雑音比に基づく理論的枠組みを開発する。 そこで, 定在力センシングを行い, 付加力ノイズを最小限に抑えるために必要な条件について検討する。 入力コヒーレント場の振幅を操作すれば、不規則ノイズやバックアクションノイズを任意に抑制できるが、熱揺らぎのレベル以下では力雑音のスペクトル密度を減少させることはできない。 そこで本稿では,非熱散逸状態調製と有限時間測定を併用した非定常プロトコルについて考察する。 非定常過渡状態における2つの異なる測定スキーム、力の到来時に駆動非対称性の配置を変更することを含むバックアクション回避測定、駆動非対称性の配置を変更しない非定常測定について分析した。 最適な力音感度の条件を決定し、対応する力音パワースペクトル密度を算出する。

We study the stationary and nonstationary measurement of a classical force driving a mechanical oscillator coupled to an electromagnetic cavity under two-tone driving. For this purpose, we develop a theoretical framework based on the signal-to-noise ratio to quantify the sensitivity of linear spectral measurements. Then, we consider stationary force sensing and study the necessary conditions to minimise the added force noise. We find that imprecision noise and back-action noise can be arbitrarily suppressed by manipulating the amplitudes of the input coherent fields, however, the force noise power spectral density cannot be reduced below the level of thermal fluctuations. Therefore, we consider a nonstationary protocol that involves non-thermal dissipative state preparation followed by a finite time measurement, which allows one to perform measurements with a signal-to-noise much greater than the maximum possible in a stationary measurement scenario. We analyse two different measurement schemes in the nonstationary transient regime, a back-action evading measurement, which implies modifying the drive asymmetry configuration upon arrival of the force, and a nonstationary measurement that leaves the drive asymmetry configuration unchanged. Conditions for optimal force noise sensitivity are determined, and the corresponding force noise power spectral densities are calculated.
翻訳日:2023-05-08 04:46:54 公開日:2020-11-08
# 単一スピンと運動質量との新たな相互作用の観察

Observation of a new interaction between a single spin and a moving mass ( http://arxiv.org/abs/2010.15667v2 )

ライセンス: Link先を確認
Xing Rong, Man Jiao, Maosen Guo, Diguang Wu and Jiangfeng Du(参考訳) 標準モデルを超えて物理学を探すことは、ダークマターのような宇宙の謎を理解するために重要である。 ダイヤモンド中の1つのスピンをセンサとして利用し、ダークマター候補によく動機づけられたアクシオン様粒子が媒介するスピン依存相互作用を探索した。 移動質量からの単一電子スピンに作用する非零磁場を記録した。 磁場の強さは移動質量の速度に比例する。 スピンと移動質量の間の距離に対する磁場の依存性を実験的に評価した。 我々は、この磁気信号の可能な源を解析し、新しいスピン依存相互作用の存在を非常に示唆した。 我々の研究は、実験室の標準モデルを超えて物理学を研究するための扉を開く。

Searching for physics beyond the standard model is crucial for understanding the mystery of the universe, such as the dark matter. We utilized a single spin in a diamond as a sensor to explore the spin-dependent interactions mediated by the axion-like particles, which are well motivated by dark matter candidates. We recorded non-zero magnetic fields exerted on the single electron spin from a moving mass. The strength of the magnetic field is proportional to the velocity of the moving mass. The dependency of the magnetic field on the distance between the spin and the moving mass has been experimentally characterized. We analyzed the possible sources of this magnetic signal, and our results provide highly suggestive of the existence of a new spin-dependent interaction. Our work opens a door for investigating the physics beyond the standard model in laboratory.
翻訳日:2023-04-27 06:03:51 公開日:2020-11-08
# 純化オントロジーも量子パラドックスもない

No purification ontology, no quantum paradoxes ( http://arxiv.org/abs/2011.04011v1 )

ライセンス: Link先を確認
Giacomo Mauro D'Ariano(参考訳) 量子論では、以下の2つの文が成り立つとほぼ普遍的に信じられている。 1) すべての変換はユニタリ相互作用によって達成され、次いでフォン・ノイマン測度が続く。 2) 混合状態はすべて純粋な絡み合った状態の縁である。 私はこの教義を浄化オントロジーの教義と呼ぶ。 ドグマの起源はフォン・ノイマンによる理論の公理化(英語版)であり、シュレーディンガー方程式を仮定として大きく依存しており、これは非相対論的文脈で成り立ち、作用素バージョンは自由場の理論でのみ成り立つが相互作用理論ではもはや成り立たない。 本稿では,ユニタリティのオントロジーと状態純度は原理上も証明不可能であり,したがって公理的に散発的であることを証明する。 代わりに、最小限の4ポストの公理化を提案する。 1) ヒルベルト空間 HA を各系 A に関連付ける。 2) テンソル積則 HAB = HAxHB により2つの系を構成する。 3) 系 A から B への変換を量子演算、すなわち A と B の間の完全正のトレース非増加写像に関連付ける。 4) (ボン則) 状態準備という特別な種類の量子演算によって全ての関節確率を評価する。 そして、シュレーディンガーキャットのような量子パラドックス、そして最も関連して、情報のパラドックスは、精製オントロジーのドグマによってのみ発生し、それらはもはや最小定式化における理論のパラドックスではないと結論づける。 同じ理由から、理論のほとんどの解釈(例えば、多世界、リレーショナル、ダーウィン主義、トランザクショナル、フォン・ノイマン=ウィグナー、時間対称、...)は、突発的な仮定から取り除かれた厳密な理論ではなく、同じドグマを解釈する。

It is almost universally believed that in quantum theory the two following statements hold: 1) all transformations are achieved by a unitary interaction followed by a von Neumann measurement; 2) all mixed states are marginals of pure entangled states. I name this doctrine the dogma of purification ontology. The source of the dogma is the original von Neumann axiomatisation of the theory, which largely relies on the Schroedinger equation as a postulate, which holds in a nonrelativistic context, and whose operator version holds only in free quantum field theory, but no longer in the interacting theory. In the present paper I prove that both ontologies of unitarity and state purity are unfalsifiable, even in principle, and therefore axiomatically spurious. I propose instead a minimal four-postulate axiomatisation: 1) associate a Hilbert space HA to each system A; 2) compose two systems by the tensor product rule HAB = HAxHB; 3) associate a transformation from system A to B to a quantum operation, i.e. to a completely positive trace-non-increasing map between the trace-class operators of A and B; 4) (Born rule) evaluate all joint probabilities through that of a special type of quantum operation: the state preparation. I then conclude that quantum paradoxes-such as the Schroedinger-cat's, and, most relevantly, the information paradox-are originated only by the dogma of purification ontology, and they are no longer paradoxes of the theory in the minimal formulation. For the same reason, most interpretations of the theory (e.g. many-world, relational, Darwinism, transactional, von Neumann-Wigner, time-symmetric, ...) interpret the same dogma, not the strict theory stripped of the spurious postulates.
翻訳日:2023-04-24 23:30:45 公開日:2020-11-08
# 箱内の1次元ワイル・マヨラナ粒子の境界条件について

On the boundary conditions for the 1D Weyl-Majorana particle in a box ( http://arxiv.org/abs/2011.04009v1 )

ライセンス: Link先を確認
Salvatore De Vincenzo(参考訳) 1+1) の時空次元では、同時にワイル粒子とマヨラナ粒子の2つの粒子(--1Dワイル・マヨラナ粒子)を持つことができる。 すなわち、マヨラナ条件を満たす二成分ディラック波動関数の右キラルおよび左キラル部分は、ワイル表現においてこれらの粒子を記述し、それぞれ独自のマヨラナ条件を満たす。 自然に、これらの2つの2成分波動関数のそれぞれ非零成分はワイル方程式を満たす。 本研究では,ボックス内の1次元ワイル・マヨラナ粒子,非零成分,したがってカイラル波動関数について,周期的および反周期的境界条件のみを許容することを示した。 後者の2つの境界条件から、ディラック波動関数全体の4つの境界条件しか構築できない。 そして, この4つの境界条件は, ボックス内の1次元マヨラナ粒子の自己随伴境界条件の最も一般的な集合に含まれることを示した。

In (1+1) space-time dimensions, we can have two particles that are Weyl and Majorana particles at the same time---1D Weyl-Majorana particles. That is, the right-chiral and left-chiral parts of the two-component Dirac wave function that satisfies the Majorana condition, in the Weyl representation, describe these particles, and each satisfies their own Majorana condition. Naturally, the nonzero component of each of these two two-component wave functions satisfies a Weyl equation. We investigate and discuss this issue and demonstrate that for a 1D Weyl-Majorana particle in a box, the nonzero components, and therefore the chiral wave functions, only admit the periodic and antiperiodic boundary conditions. From the latter two boundary conditions, we can only construct four boundary conditions for the entire Dirac wave function. Then, we demonstrate that these four boundary conditions are also included within the most general set of self-adjoint boundary conditions for a 1D Majorana particle in a box.
翻訳日:2023-04-24 23:30:12 公開日:2020-11-08
# デジタル露出通知におけるプライバシーの正確性に関するトレードオフ

Privacy-accuracy trade-offs in noisy digital exposure notifications ( http://arxiv.org/abs/2011.03995v1 )

ライセンス: Link先を確認
Abbas Hammoud and Yun William Yu(参考訳) Covid-19の世界的な普及が、政府による手動接触追跡の試みを圧倒し始めており、露出通知アプリケーションの開発を通じて接触追跡プロセスを自動化するために携帯電話の力を使うことに大きな関心が寄せられている。 Bluetoothなどのデータ交換技術を使って、ユーザー間の連絡先を記録したり、ポジティブな診断を報告したり、病気のユーザーに暴露されたユーザーに警告したりできる。 もちろん、このアイデアには多くのプライバシー上の懸念がある。 この領域での作業の多くは、連絡先をトレースするメカニズムの設計と、露出イベント以外にユーザに関する情報を漏らさないユーザへの警告に関するものだ。 しかし、実用的なプロトコルを設計することは重要であるが、露出イベントについてユーザーに通知することは、秘密情報そのものを漏洩させる可能性がある(例えば、特定の接触が診断された)ことに気づくことが不可欠である。 幸いなことに、デジタル接触追跡は比較的新しいタスクだが、プライバシーとデータ開示の一般的な問題は何十年も研究されてきた。 実際、差分プライバシーのフレームワークは、ランダムノイズを追加することで、証明可能なクエリプライバシをさらに許可する。 本稿では,統計的プライバシとソーシャルレコメンデーションアルゴリズムから露出通知への2つの結果の変換を行う。 したがって、露光通知フレームワークがノイズ注入によってよりプライベートにされなければならない場合、どの精度を犠牲にしなければならないかについて、いくつかのナイーブな境界を証明します。

Since the global spread of Covid-19 began to overwhelm the attempts of governments to conduct manual contact-tracing, there has been much interest in using the power of mobile phones to automate the contact-tracing process through the development of exposure notification applications. The rough idea is simple: use Bluetooth or other data-exchange technologies to record contacts between users, enable users to report positive diagnoses, and alert users who have been exposed to sick users. Of course, there are many privacy concerns associated with this idea. Much of the work in this area has been concerned with designing mechanisms for tracing contacts and alerting users that do not leak additional information about users beyond the existence of exposure events. However, although designing practical protocols is of crucial importance, it is essential to realize that notifying users about exposure events may itself leak confidential information (e.g. that a particular contact has been diagnosed). Luckily, while digital contact tracing is a relatively new task, the generic problem of privacy and data disclosure has been studied for decades. Indeed, the framework of differential privacy further permits provable query privacy by adding random noise. In this article, we translate two results from statistical privacy and social recommendation algorithms to exposure notification. We thus prove some naive bounds on the degree to which accuracy must be sacrificed if exposure notification frameworks are to be made more private through the injection of noise.
翻訳日:2023-04-24 23:29:43 公開日:2020-11-08
# 光偏光における量子概念

Quantum concepts in optical polarization ( http://arxiv.org/abs/2011.03979v1 )

ライセンス: Link先を確認
Aaron Z. Goldberg, Pablo de la Hoz, Gunnar Bjork, Andrei B. Klimov, Markus Grassl, Gerd Leuchs, and Luis L. Sanchez-Soto(参考訳) 我々は、光の偏光特性の量子論を包括的に検討する。 古典光学では、これらの特徴は、ポアンカー球面を用いて幾何学的に解釈できるストークスパラメータによって特徴づけられる。 驚くべきことに、これらのストークスパラメータは量子世界にも適用できるが、次に重要な違いが生じる: 現在、光子数のゆらぎは避けられないので、入れ子球体の集合と見なすことができる三次元ポアンカル空間で働かなければならない。 加えて、ストークス変数の高次モーメントは量子状態において重要な役割を果たす可能性があるが、ほとんどの古典ガウス状態ではそうではない。 このことは、我々が詳細にレビューする2つの世界の間に重要な違いをもたらします。 特に古典的な偏極度は量子領域において不満足な結果をもたらす。 代替の量子次数を比較して、様々な状態を異なる順序で順序付けする。 最後に、本質的に非古典的状態が探求され、量子技術におけるその潜在的な応用が議論される。

We comprehensively review the quantum theory of the polarization properties of light. In classical optics, these traits are characterized by the Stokes parameters, which can be geometrically interpreted using the Poincar\'e sphere. Remarkably, these Stokes parameters can also be applied to the quantum world, but then important differences emerge: now, because fluctuations in the number of photons are unavoidable, one is forced to work in the three-dimensional Poincar\'e space that can be regarded as a set of nested spheres. Additionally, higher-order moments of the Stokes variables might play a substantial role for quantum states, which is not the case for most classical Gaussian states. This brings about important differences between these two worlds that we review in detail. In particular, the classical degree of polarization produces unsatisfactory results in the quantum domain. We compare alternative quantum degrees and put forth that they order various states differently. Finally, intrinsically nonclassical states are explored and their potential applications in quantum technologies are discussed.
翻訳日:2023-04-24 23:29:12 公開日:2020-11-08
# 反強磁性絶縁体のスピン輸送特性の量子センシング

Quantum Sensing of Spin Transport Properties of an Antiferromagnetic Insulator ( http://arxiv.org/abs/2011.03905v1 )

ライセンス: Link先を確認
Hailong Wang, Shu Zhang, Nathan J. McLaughlin, Benedetta Flebus, Mengqi Huang, Yuxuan Xiao, Eric E. Fullerton, Yaroslav Tserkovnyak, Chunhui Rita Du(参考訳) 反強磁性絶縁体(AFI)は、次世代のスピントロニクスデバイスを開発する可能性から大きな関心を集めている。 この新興分野における大きな取り組みの1つは、長距離スピン情報通信とストレージにAFIを活用することである。 本稿では,非侵襲的に,窒素空隙(nv)量子スピンセンサを介してafi {\alpha}-fe2o3の固有スピン輸送特性に光学的にアクセスする手法を提案する。 nvゆらぎ測定により, {\alpha}-fe2o3の縦スピン密度の時間依存性の変動を検出できた。 nv緩和率の観測周波数依存性は理論モデルと一致しており、外部スピンバイアスがなければ、"alpha}-fe2o3の固有スピン拡散定数が実験的に測定される。 以上の結果から,NVセンターが幅広い高周波磁気材料に根底にあるスピン輸送特性を診断する上で,より従来型の計測技術によるアクセスが困難であることを示す。

Antiferromagnetic insulators (AFIs) are of significant interest due to their potential to develop next-generation spintronic devices. One major effort in this emerging field is to harness AFIs for long-range spin information communication and storage. Here, we report a non-invasive method to optically access the intrinsic spin transport properties of an archetypical AFI {\alpha}-Fe2O3 via nitrogen-vacancy (NV) quantum spin sensors. By NV relaxometry measurements, we successfully detect the time-dependent fluctuations of the longitudinal spin density of {\alpha}-Fe2O3. The observed frequency dependence of the NV relaxation rate is in agreement with a theoretical model, from which an intrinsic spin diffusion constant of {\alpha}-Fe2O3 is experimentally measured in the absence of external spin biases. Our results highlight the significant opportunity offered by NV centers in diagnosing the underlying spin transport properties in a broad range of high-frequency magnetic materials, which are challenging to access by more conventional measurement techniques.
翻訳日:2023-04-24 23:28:21 公開日:2020-11-08
# 自由空間における電子ビームの光変調

Optical Modulation of Electron Beams in Free Space ( http://arxiv.org/abs/2011.03884v1 )

ライセンス: Link先を確認
F. Javier Garc\'ia de Abajo and Andrea Kone\v{c}n\'a(参考訳) 我々は、電子ビームと調整光場の間の自由空間相互作用を利用して、電子波関数にオンデマンド位相プロファイルを印加する。 電子の量子的記述を含む厳密な半古典理論を通じて、真空に焦点を当てた単色光学場を用いて電子ビーム収差を補正し、選択された焦点形状を生成できることを示す。 刺激された弾性コンプトン散乱を利用して位相を印加する。これは電子経路に沿った集積光場強度に比例し、横ビーム位置に依存する。 必要な光強度は、現在入手可能な超高速電子顕微鏡装置で達成でき、これによって電子ビームの自由空間光操作の分野が開かれる。

We exploit free-space interactions between electron beams and tailored light fields to imprint on-demand phase profiles on the electron wave functions. Through rigorous semiclassical theory involving a quantum description of the electrons, we show that monochromatic optical fields focused in vacuum can be used to correct electron beam aberrations and produce selected focal shapes. Stimulated elastic Compton scattering is exploited to imprint the phase, which is proportional to the integrated optical field intensity along the electron path and depends on the transverse beam position. The required light intensities are attainable in currently available ultrafast electron microscope setups, thus opening the field of free-space optical manipulation of electron beams.
翻訳日:2023-04-24 23:27:54 公開日:2020-11-08
# ヘリカルスピン鎖を用いた量子テレポーテーションによる絡み合いの共有

Quantum teleportation by utilizing helical spin chains for sharing entanglement ( http://arxiv.org/abs/2011.03873v1 )

ライセンス: Link先を確認
Harshit Verma, Levan Chotorlishvili, Jamal Berakdar, Sunil Kumar Mishra(参考訳) ヘリカルな多強磁性スピン鎖の自然なダイナミクスを用いて,両端間の絡み合い(1ビット)を共有する新しいプロトコルを開発した。 本稿では,適切なパラメータ選択の有無で機能するプロトコルにおけるテレポーテーションの忠実度を高めるための,電界の新たな蹴り方式を提案する。 また,共用スピン環境が絡み合い共有チャネルに脱コヒーレンスを引き起こす影響についても検討した。 同様の絡み合い共有プロトコルに基づくXXZモデルとXXZモデルとの比較を行い,蹴り方式によるヘリカルマルチフェロリック鎖がより優れたシングルト分数を与えることを示した。 我々は,不純物やデコヒーレンスの存在下においても,最適パラメータと共役するキックスキームがテレポーテーションの忠実度を高めることを示す。 不純物の場合の蹴り方式の利点は、ヘリカル多強磁性スピン鎖の実現可能なセットアップにおいて有用となる重要な結果である。

We develop a new protocol for sharing entanglement (one ebit) between two parties using the natural dynamics of helical multiferroic spin chains. We introduce a novel kicking scheme of the electric field for enhancing the teleportation fidelity in our protocol that works in the presence of an appropriate choice of parameters. We also investigate the effect of a common spin environment causing decoherence in the entanglement sharing channel. We compare the results to that of XXZ and XX models subject to a similar entanglement sharing protocol and find that the helical multiferroic chain with the kicking scheme provides a better singlet fraction. We show that the kicking scheme in conjugation with the optimized parameters enhances the fidelity of teleportation even in the presence of impurities and/or decoherence. The advantage of the kicking scheme shown in the impurity cases is an important result to be useful in a realizable setup of helical multiferroic spin chain.
翻訳日:2023-04-24 23:27:42 公開日:2020-11-08
# 適応技術と拡張現実を用いた学習のパーソナライズ

Personalization of learning using adaptive technologies and augmented reality ( http://arxiv.org/abs/2011.05802v1 )

ライセンス: Link先を確認
Maiia Marienko, Yulia Nosenko, Mariya Shyshkina(参考訳) 本研究は,適応型技術と拡張現実を用いたパーソナライズ学習実践における教育者への推奨事項の開発を目的としている。 個人化の学習と内容の個人的ニーズへの適応に関する最新の教育技術やグループワークについて考察する。 研究の現状が述べられ、開発動向が決定される。 科学的研究の詳細な分析により,適応型システム,特にクラウド指向システムの発展の振り返りが示された。 それらの出現と発展の前提条件は、これに貢献した主要な科学的考えである。 分析の結果、研究者たちは拡張現実と適応技術による4種類の意味的相互作用を指摘した。 適応型クラウドベースの教育システム設計は、研究の有望なトレンドと考えられている。 適応性は、コンテンツ、評価、一貫性の2つの側面の1つまたは1つの組み合わせで表せると判断された。 クラウド技術は、適応学習と拡張現実を統合するためのプラットフォームとして、学習をパーソナライズするための効果的な現代的なツールとして捉えられている。 教員養成の文脈における適応型クラウドシステム設計の展望を評価する。 適応学習システム設計における補助技術の本質と場所を定義した。 拡張現実は包括的教育にうまく応用できることが示されている。 適応システムと拡張現実ツールを組み合わせて教員養成のプロセスを支援する方法について考察する。 教員教育における適応型クラウドベースシステムの利用に関する推奨事項が提供される。

The research is aimed at developing the recommendations for educators on using adaptive technologies and augmented reality in personalized learning implementation. The latest educational technologies related to learning personalization and the adaptation of its content to the individual needs of students and group work are considered. The current state of research is described, the trends of development are determined. Due to a detailed analysis of scientific works, a retrospective of the development of adaptive and, in particular, cloud-oriented systems is shown. The preconditions of their appearance and development, the main scientific ideas that contributed to this are analyzed. The analysis showed that the scientists point to four possible types of semantic interaction of augmented reality and adaptive technologies. The adaptive cloud-based educational systems design is considered as the promising trend of research. It was determined that adaptability can be manifested in one or a combination of several aspects: content, evaluation and consistency. The cloud technology is taken as a platform for integrating adaptive learning with augmented reality as the effective modern tools to personalize learning. The prospects of the adaptive cloud-based systems design in the context of teachers training are evaluated. The essence and place of assistive technologies in adaptive learning systems design are defined. It is shown that augmented reality can be successfully applied in inclusive education. The ways of combining adaptive systems and augmented reality tools to support the process of teachers training are considered. The recommendations on the use of adaptive cloud-based systems in teacher education are given.
翻訳日:2023-04-24 23:21:36 公開日:2020-11-08
# 結合テンソル補完のための統一フレームワーク

A Unified Framework for Coupled Tensor Completion ( http://arxiv.org/abs/2001.02810v4 )

ライセンス: Link先を確認
Huyan Huang, Yipeng Liu, Ce Zhu(参考訳) 結合テンソル分解は、潜在結合因子に由来する事前知識を組み込むことで、結合データ構造を明らかにする。 テンソル環(TR)分解は、異なるモード特性を持つテンソルの置換の下で不変であり、分解された因子とモード属性の均一性を保証する。 TRは強力な表現能力を持ち、多次元データ処理アプリケーションで成功を収める。 本稿では、結合テンソルがコンポーネント推定の欠如を補うために、潜在因子の一部を共有することで結合完了にTRを利用する。 新たなフロベニウスノルムを用いて,結合tr補完のための最適化モデルを開発した。 サンプリングパターンから生じる一連の二次問題を効率的に解くブロック座標降下アルゴリズムによって解く。 この最適化モデルに対する過剰なリスクバウンドは、他の結合核ノルムベース法と比較して理論的性能の向上を示す。 提案手法は, 合成データに関する数値実験で検証され, 実世界のデータに対する実験結果は, 回収精度の観点から, 最先端の手法よりも優れていることを示す。

Coupled tensor decomposition reveals the joint data structure by incorporating priori knowledge that come from the latent coupled factors. The tensor ring (TR) decomposition is invariant under the permutation of tensors with different mode properties, which ensures the uniformity of decomposed factors and mode attributes. The TR has powerful expression ability and achieves success in some multi-dimensional data processing applications. To let coupled tensors help each other for missing component estimation, in this paper we utilize TR for coupled completion by sharing parts of the latent factors. The optimization model for coupled TR completion is developed with a novel Frobenius norm. It is solved by the block coordinate descent algorithm which efficiently solves a series of quadratic problems resulted from sampling pattern. The excess risk bound for this optimization model shows the theoretical performance enhancement in comparison with other coupled nuclear norm based methods. The proposed method is validated on numerical experiments on synthetic data, and experimental results on real-world data demonstrate its superiority over the state-of-the-art methods in terms of recovery accuracy.
翻訳日:2023-01-13 04:21:25 公開日:2020-11-08
# 2部量子状態における量子情報スクランブルと絡み合い

Quantum Information Scrambling and Entanglement in Bipartite Quantum States ( http://arxiv.org/abs/2001.07610v3 )

ライセンス: Link先を確認
Kapil K. Sharma and Vladimir P. Gerdt(参考訳) 物理系における量子相関に対する量子情報(QI)スクランブルの影響を調べることは興味深い問題である。 本稿では、量子情報スクランブル、uulmann fidelity、bures metric、bipartite concurrenceとして知られる量子化子間の数学的接続を確立する。 量子情報のスクランブルに使用される4点の時間外相関関数(OTOC)を用いて,これらの関係について検討する。 さらに,全ての量子化器のダイナミクスについて検討し,ベル状態における2つの量子ビットの絡み合いに対するqiスクランブルの影響について検討した。 また、関連するQIスクランブルおよび絡み合いバランス点を決定し、それらがイジング・ハミルトニアンの性質上周期的であることを調べる。

Investigating the influence of quantum information (QI) scrambling on quantum correlations in a physical system is an interesting problem. In this article we establish the mathematical connections among the quantifiers known as quantum information scrambling, Uhlmann fidelity, Bures metric and bipartite concurrence. We study these relations via four point out-of-time-order correlation (OTOC) function used for quantum information scrambling. Further we study the dynamics of all the quantifiers and investigate the influence of QI scrambling on entanglement in two qubits prepared in Bell states. We also determine the related QI scrambling and entanglement balancing points and investigate that they are periodic in nature for the Ising Hamiltonian.
翻訳日:2023-01-10 12:56:36 公開日:2020-11-08
# サリエンシー駆動の知覚画像圧縮

Saliency Driven Perceptual Image Compression ( http://arxiv.org/abs/2002.04988v2 )

ライセンス: Link先を確認
Yash Patel, Srikar Appalaraju, R. Manmatha(参考訳) 本稿では,ロス画像圧縮のための新しいエンド・ツー・エンド学習モデルを提案する。 この方法には 1) 適切な知覚類似度尺度 2) 画像の正当性 3)階層的自己回帰モデル。 本稿では,ms-ssimやpsnrなどの評価基準が,人間の類似性知覚と一致しない画像圧縮技術の性能を判断するには不十分であることを示す。 あるいは、画像圧縮に特有の知覚的類似性データに基づいて学習する新しい指標を提案する。 提案した圧縮モデルは,有意な領域を包含し,提案した知覚的類似度尺度を最適化する。 このモデルは視覚的に優れた画像を生成するだけでなく、既存のエンジニアや学習した圧縮技術と比較して、オブジェクト検出やセグメンテーションといったその後のコンピュータビジョンタスクに優れたパフォーマンスを与える。

This paper proposes a new end-to-end trainable model for lossy image compression, which includes several novel components. The method incorporates 1) an adequate perceptual similarity metric; 2) saliency in the images; 3) a hierarchical auto-regressive model. This paper demonstrates that the popularly used evaluations metrics such as MS-SSIM and PSNR are inadequate for judging the performance of image compression techniques as they do not align with the human perception of similarity. Alternatively, a new metric is proposed, which is learned on perceptual similarity data specific to image compression. The proposed compression model incorporates the salient regions and optimizes on the proposed perceptual similarity metric. The model not only generates images which are visually better but also gives superior performance for subsequent computer vision tasks such as object detection and segmentation when compared to existing engineered or learned compression techniques.
翻訳日:2023-01-01 20:32:36 公開日:2020-11-08
# 学生の入学パターンと成績の関係の定量化

Quantifying the relationship between student enrollment patterns and student performance ( http://arxiv.org/abs/2003.10874v4 )

ライセンス: Link先を確認
Shahab Boumi, Adan Vela, Jacquelyn Chini(参考訳) 単純な分類は、しばしば学生をフルタイムまたはパートタイムの学生としてラベル付けする。 しかし,多くの大学では,学期ごとのフルタイムとパートタイムの交替が,財務やスケジュール,家族のニーズに基づいて行われることは珍しくないため,学生の入学パターンが複雑になる場合がある。 先行研究により、フルタイムの学生は、パートタイムの学生よりも優れた結果を維持することが確立されているが、限定的な研究は、入学パターンや戦略が学業成績に与える影響を調査している。 本稿では,Hidden Markovモデルを用いて,学生の入学戦略を,フルタイム,パートタイム,混合入学戦略の3つのカテゴリに分類・クラスタリングする。 入学戦略に基づき、初等学生と転校生の違いを考慮し、各グループの学業成績を調査・比較する。 2008年から2017年にかけて、中央フロリダ大学が収集したデータから、参加戦略を混入した初回校生は、パートタイムの学生に比べて、フルタイムの学生にパフォーマンスが近いことが示された。 より重要なことは、パートタイム・セミメータの間、混合入学の学生はパートタイムの学生よりも著しく優れていた。 同様に、転校生の分析では、混合入学戦略はフルタイム入学戦略と類似の卒業率と相関し、パートタイム入学に伴う卒業率の2倍以上であることが示された。 このような発見は、フルタイムの参加によってエンゲージメントが増加し、全体的な成果が向上することを示している。

Simplified categorizations have often led to college students being labeled as full-time or part-time students. However, at many universities student enrollment patterns can be much more complicated, as it is not uncommon for students to alternate between full-time and part-time enrollment each semester based on finances, scheduling, or family needs. While prior research has established full-time students maintain better outcomes then their part-time counterparts, limited study has examined the impact of enrollment patterns or strategies on academic outcomes. In this paper, we applying a Hidden Markov Model to identify and cluster students' enrollment strategies into three different categorizes: full-time, part-time, and mixed-enrollment strategies. Based the enrollment strategies we investigate and compare the academic performance outcomes of each group, taking into account differences between first-time-in-college students and transfer students. Analysis of data collected from the University of Central Florida from 2008 to 2017 indicates that first-time-in-college students that apply a mixed enrollment strategy are closer in performance to full-time students, as compared to part-time students. More importantly, during their part-time semesters, mixed-enrollment students significantly outperform part-time students. Similarly, analysis of transfer students shows that a mixed-enrollment strategy is correlated a similar graduation rates as the full-time enrollment strategy, and more than double the graduation rate associated with part-time enrollment. Such a finding suggests that increased engagement through the occasional full-time enrollment leads to better overall outcomes.
翻訳日:2022-12-21 05:25:11 公開日:2020-11-08
# 周波数重み付きアプローチと擬似Whisper事前学習によるエンドツーエンドWhisper音声認識

End-to-end Whispered Speech Recognition with Frequency-weighted Approaches and Pseudo Whisper Pre-training ( http://arxiv.org/abs/2005.01972v2 )

ライセンス: Link先を確認
Heng-Jui Chang, Alexander H. Liu, Hung-yi Lee, Lin-shan Lee(参考訳) ささやきは人間の発話の重要なモードであるが、それに対するエンドツーエンドの認識結果はまだ報告されていない。 本稿では,ささやき音声の特殊特性とデータ不足を考慮した音声のエンド・ツー・エンド(e2e)認識手法について述べる。 これには、発声音声の高周波構造をよりよく捉えるために、周波数重み付けのスペック素片ポリシーと周波数分割cnn特徴抽出器と、通常または正常に発声された変換音声でモデルを事前学習し、それをささやき音声で微調整して、ささやき声と正常音声のギャップを橋渡しする層間伝達学習アプローチが含まれる。 我々は,比較的小型のTIMITコーパスを用いて,PER19.8%,CER44.4%の相対減少を実現した。 その結果、正常または擬似発声音声で事前訓練された良質なE2Eモデルが存在する限り、比較的小さな発声音声群は、合理的に優れたE2E発声音声認識器を得るのに十分であることが示された。

Whispering is an important mode of human speech, but no end-to-end recognition results for it were reported yet, probably due to the scarcity of available whispered speech data. In this paper, we present several approaches for end-to-end (E2E) recognition of whispered speech considering the special characteristics of whispered speech and the scarcity of data. This includes a frequency-weighted SpecAugment policy and a frequency-divided CNN feature extractor for better capturing the high-frequency structures of whispered speech, and a layer-wise transfer learning approach to pre-train a model with normal or normal-to-whispered converted speech then fine-tune it with whispered speech to bridge the gap between whispered and normal speech. We achieve an overall relative reduction of 19.8% in PER and 44.4% in CER on a relatively small whispered TIMIT corpus. The results indicate as long as we have a good E2E model pre-trained on normal or pseudo-whispered speech, a relatively small set of whispered speech may suffice to obtain a reasonably good E2E whispered speech recognizer.
翻訳日:2022-12-06 14:25:35 公開日:2020-11-08
# エネルギー効率の良いニューロモルフィック推論をanレベル精度に向上させる

You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference to ANN-Level Accuracy ( http://arxiv.org/abs/2006.09982v2 )

ライセンス: Link先を確認
Srivatsa P and Kyle Timothy Ng Chu and Burin Amornpaisannon and Yaswanth Tavva and Venkata Pavan Kumar Miriyala and Jibin Wu and Malu Zhang and Haizhou Li and Trevor E. Carlson(参考訳) 過去10年間で、Artificial Neural Networks(ANN)の進歩により、幅広いタスクに対して極めて優れたパフォーマンスを実現している。 実際、例えば画像認識を行う場合、それらは人間の同等性に達している。 残念ながら、これらのANNの精度は、大量のキャッシュと/またはメモリアクセスと計算操作を犠牲にしている。 ニューロモルフィックの一種であるスパイキングニューラルネットワーク(SNN)は、近年ANNの電力効率に優れた代替品として大きな関心を集めている。 ニューロモルフィックハードウェアの設計の大部分は、スパイクレートでエンコードされたSNNをサポートする。 レートエンコードされたSNNは、多数のスパイクの送信を伴うため、符号化方式として非効率であると見なすことができる。 より効率的な符号化方式であるTime-To-First-Spike (TTFS)エンコーディングは、スパイクの到着相対時間で情報をエンコードする。 TTFSエンコードされたSNNは、レートエンコードされたSNNよりも効率が良いが、これまでは従来の手法に比べて精度が劣っていた。 そこで本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。 そこで本研究では,(1)ANNから変換されたTTFS符号化SNNの新しい最適化アルゴリズム,(2)スケーラブルで低消費電力な設計によるTTFS符号化SNNの新しいハードウェアアクセラレータを提案する。 全体として、TTFSエンコーディングとトレーニングにおける作業は、MNIST MLPの最先端結果を達成するためにSNNの精度を向上させるとともに、最先端のニューロモルフィックハードウェアよりも1.46$\times$の消費電力を削減する。

In the past decade, advances in Artificial Neural Networks (ANNs) have allowed them to perform extremely well for a wide range of tasks. In fact, they have reached human parity when performing image recognition, for example. Unfortunately, the accuracy of these ANNs comes at the expense of a large number of cache and/or memory accesses and compute operations. Spiking Neural Networks (SNNs), a type of neuromorphic, or brain-inspired network, have recently gained significant interest as power-efficient alternatives to ANNs, because they are sparse, accessing very few weights, and typically only use addition operations instead of the more power-intensive multiply-and-accumulate (MAC) operations. The vast majority of neuromorphic hardware designs support rate-encoded SNNs, where the information is encoded in spike rates. Rate-encoded SNNs could be seen as inefficient as an encoding scheme because it involves the transmission of a large number of spikes. A more efficient encoding scheme, Time-To-First-Spike (TTFS) encoding, encodes information in the relative time of arrival of spikes. While TTFS-encoded SNNs are more efficient than rate-encoded SNNs, they have, up to now, performed poorly in terms of accuracy compared to previous methods. Hence, in this work, we aim to overcome the limitations of TTFS-encoded neuromorphic systems. To accomplish this, we propose: (1) a novel optimization algorithm for TTFS-encoded SNNs converted from ANNs and (2) a novel hardware accelerator for TTFS-encoded SNNs, with a scalable and low-power design. Overall, our work in TTFS encoding and training improves the accuracy of SNNs to achieve state-of-the-art results on MNIST MLPs, while reducing power consumption by 1.46$\times$ over the state-of-the-art neuromorphic hardware.
翻訳日:2022-11-25 17:11:31 公開日:2020-11-08
# Pruneをフィルタするか、Pruneを階層化する

To Filter Prune, or to Layer Prune, That Is The Question ( http://arxiv.org/abs/2007.05667v3 )

ライセンス: Link先を確認
Sara Elkerdawy, Mostafa Elhoushi, Abhineet Singh, Hong Zhang and Nilanjan Ray(参考訳) ニューラルネットワークのプルーニングの最近の進歩により、知覚できる精度の低下なしに、多数のフィルタや重みを除去することが可能になった。 パラメータの数とFLOPは、通常、刈り取られたモデルの品質を測定するために報告される指標である。 しかしながら、これらの刈り取られたモデルの速度の上昇は、遅延測定の複雑な性質のため、文献ではしばしば見過ごされる。 本稿では,遅延低減の観点からフィルタプルーニング手法の限界を示すとともに,LayerPruneフレームワークを提案する。 layerpruneは、同様の精度でフィルタプルーニング法よりも高いレイテンシー低減を達成する、異なる基準に基づく階層プルーニング法の集合を示す。 遅延低減の観点からフィルタプルーニングよりもレイヤプルーニングの利点は、前者が元のモデルの深さに制約されず、より広範囲の遅延低減を可能にするという事実によるものである。 各フィルタの刈り取り法について,同一のフィルタ重要度基準を用いて,単発で各層重要度スコアを算出した。 次に, 最重要層のプルーニングを行い, フィルタベースのプルーニングに比べて, 同等あるいは優れた精度が得られる浅層モデルを微調整する。 このワンショットプロセスでは、微調整前にvggのような単一パスネットワークからレイヤを削除できるが、反復フィルタのプルーニングとは異なり、検索空間を制約するデータフローを可能にするために、レイヤ毎のフィルタの最小数が必要となる。 我々の知る限りでは、複数のネットワーク、データセット、ハードウェアターゲットに対するFLOPではなく、遅延メトリックに対するプルーニング手法の効果を最初に調べる。 layerprune は shufflenet, mobilenet, mnasnet, resnet18 といった手作りアーキテクチャを7.3%, 4.6%, 2.8%, 0.5% で上回っている。

Recent advances in pruning of neural networks have made it possible to remove a large number of filters or weights without any perceptible drop in accuracy. The number of parameters and that of FLOPs are usually the reported metrics to measure the quality of the pruned models. However, the gain in speed for these pruned models is often overlooked in the literature due to the complex nature of latency measurements. In this paper, we show the limitation of filter pruning methods in terms of latency reduction and propose LayerPrune framework. LayerPrune presents a set of layer pruning methods based on different criteria that achieve higher latency reduction than filter pruning methods on similar accuracy. The advantage of layer pruning over filter pruning in terms of latency reduction is a result of the fact that the former is not constrained by the original model's depth and thus allows for a larger range of latency reduction. For each filter pruning method we examined, we use the same filter importance criterion to calculate a per-layer importance score in one-shot. We then prune the least important layers and fine-tune the shallower model which obtains comparable or better accuracy than its filter-based pruning counterpart. This one-shot process allows to remove layers from single path networks like VGG before fine-tuning, unlike in iterative filter pruning, a minimum number of filters per layer is required to allow for data flow which constraint the search space. To the best of our knowledge, we are the first to examine the effect of pruning methods on latency metric instead of FLOPs for multiple networks, datasets and hardware targets. LayerPrune also outperforms handcrafted architectures such as Shufflenet, MobileNet, MNASNet and ResNet18 by 7.3%, 4.6%, 2.8% and 0.5% respectively on similar latency budget on ImageNet dataset.
翻訳日:2022-11-11 13:37:35 公開日:2020-11-08
# 平均な滑らかさを持つ関数:構造、アルゴリズム、学習

Functions with average smoothness: structure, algorithms, and learning ( http://arxiv.org/abs/2007.06283v2 )

ライセンス: Link先を確認
Yair Ashlagi, Lee-Ad Gottlieb, Aryeh Kontorovich(参考訳) 計量空間上の実数値関数を効率的に学習するための平均滑らかさ解析プログラムを開始する。 リプシッツ定数を正則化子として使うのではなく、各点の局所勾配を定義し、これらの値の平均として関数複雑性を測る。 平均は最大値よりも劇的に小さいため、この複雑性測度は、リプシッツ定数が我々の局所斜面の平均に置き換わる精細化を前提として、かなり鋭い一般化境界を与えることができる。 私たちの最初の大きな貢献は、そのような分布に敏感な境界を得ることです。 これは多くの技術的課題を克服する必要があり、おそらく最も強大なものは、周囲の問題よりもはるかに悪い可能性がある「経験的」被覆数に縛られることであった。 我々の組み合わせの結果は、ランダムサンプルのラベルを滑らかにするための効率的なアルゴリズムと、サンプルから空間全体への拡張が、高い確率で、平均的に滑らかであることを保証する。 その過程で、定義した関数クラスの驚くほどリッチな組合せ構造と解析構造を発見します。

We initiate a program of average smoothness analysis for efficiently learning real-valued functions on metric spaces. Rather than using the Lipschitz constant as the regularizer, we define a local slope at each point and gauge the function complexity as the average of these values. Since the mean can be dramatically smaller than the maximum, this complexity measure can yield considerably sharper generalization bounds -- assuming that these admit a refinement where the Lipschitz constant is replaced by our average of local slopes. Our first major contribution is to obtain just such distribution-sensitive bounds. This required overcoming a number of technical challenges, perhaps the most formidable of which was bounding the {\em empirical} covering numbers, which can be much worse-behaved than the ambient ones. Our combinatorial results are accompanied by efficient algorithms for smoothing the labels of the random sample, as well as guarantees that the extension from the sample to the whole space will continue to be, with high probability, smooth on average. Along the way we discover a surprisingly rich combinatorial and analytic structure in the function class we define.
翻訳日:2022-11-11 00:52:27 公開日:2020-11-08
# 模倣学習のためのベイズロバスト最適化

Bayesian Robust Optimization for Imitation Learning ( http://arxiv.org/abs/2007.12315v3 )

ライセンス: Link先を確認
Daniel S. Brown, Scott Niekum, Marek Petrik(参考訳) 模倣学習における主な課題の1つは、エージェントがデモの状態分布の外側でどのようなアクションをとるべきかを決定することである。 逆強化学習(IRL)は、パラメータ化された報酬関数を学習することで新しい状態への一般化を可能にするが、これらのアプローチは真の報酬関数と対応する最適ポリシーに対する不確実性に直面している。 irlに基づく既存の安全模倣学習アプローチは、敵報酬関数の仮定の下でポリシーを最適化するmaxminフレームワークを使用してこの不確実性に対処するが、リスク中立のirlアプローチは平均に対するポリシーを最適化するか、マップ報酬関数を最適化するかのいずれかである。 リスクを完全に無視することは過度に攻撃的かつ安全でない政策につながるが、完全に敵対的な意味での最適化もまた問題となる。 本稿では,この2つの極端間の橋渡しを行うため,BROIL(Bayesian Robust Optimization for Imitation Learning)を提案する。 BROILはベイジアン報酬関数推論とユーザ固有のリスクトレランスを活用して、期待されるリターンとリスク時の条件値のバランスをとる堅牢なポリシを効率的に最適化する。 実験の結果,ブロイユは回帰最大化とリスク最小化の動作を補間し,既存のリスクに敏感でリスク中立な逆強化学習アルゴリズムよりも優れていることがわかった。 コードはhttps://github.com/dsbrown1331/broilで入手できる。

One of the main challenges in imitation learning is determining what action an agent should take when outside the state distribution of the demonstrations. Inverse reinforcement learning (IRL) can enable generalization to new states by learning a parameterized reward function, but these approaches still face uncertainty over the true reward function and corresponding optimal policy. Existing safe imitation learning approaches based on IRL deal with this uncertainty using a maxmin framework that optimizes a policy under the assumption of an adversarial reward function, whereas risk-neutral IRL approaches either optimize a policy for the mean or MAP reward function. While completely ignoring risk can lead to overly aggressive and unsafe policies, optimizing in a fully adversarial sense is also problematic as it can lead to overly conservative policies that perform poorly in practice. To provide a bridge between these two extremes, we propose Bayesian Robust Optimization for Imitation Learning (BROIL). BROIL leverages Bayesian reward function inference and a user specific risk tolerance to efficiently optimize a robust policy that balances expected return and conditional value at risk. Our empirical results show that BROIL provides a natural way to interpolate between return-maximizing and risk-minimizing behaviors and outperforms existing risk-sensitive and risk-neutral inverse reinforcement learning algorithms. Code is available at https://github.com/dsbrown1331/broil.
翻訳日:2022-11-07 06:05:03 公開日:2020-11-08
# CAMPs: 意思決定型MDPにおける効率的なプランニングのためのコンテキスト特異的抽象化学習

CAMPs: Learning Context-Specific Abstractions for Efficient Planning in Factored MDPs ( http://arxiv.org/abs/2007.13202v3 )

ライセンス: Link先を確認
Rohan Chitnis, Tom Silver, Beomjoon Kim, Leslie Pack Kaelbling, Tomas Lozano-Perez(参考訳) メタプランニング(meta-planning)は、計画の計算コストを改善するための有望なアプローチである。 一般的なメタ計画戦略は、エージェントが考慮した状態とアクションに制約を課すことを学ぶことである。 我々は,(1)制約を課すことは,ドメインのいくつかの側面を無関係に表現するコンテキスト固有の独立性を誘導し,(2)エージェントが自身の行動に制約を課すことで,この事実を活用できることを観察する。 これらの観察結果から,効率的な計画を行うための因子的MDPの抽象化である文脈特異的抽象マルコフ決定プロセス(CAMP)を提案する。 次に、CAMPが報酬と計算コストのトレードオフを最適化できるように、制約を課す方法を説明する。 実験では,移動障害物(namo)間のロボットナビゲーション,ロボットタスク,シーケンシャル操作のためのモーションプランニング,クラシックプランニングなど,4領域にまたがる5つのプランナーについて検討した。 我々は学習したCAMPを用いて、StilmanのNAMO固有のアルゴリズムを含むベースラインを一貫して上回る計画を立てている。 ビデオ: https://youtu.be/wTXt6djcAd4コード: https://git.io/JTnf6

Meta-planning, or learning to guide planning from experience, is a promising approach to improving the computational cost of planning. A general meta-planning strategy is to learn to impose constraints on the states considered and actions taken by the agent. We observe that (1) imposing a constraint can induce context-specific independences that render some aspects of the domain irrelevant, and (2) an agent can take advantage of this fact by imposing constraints on its own behavior. These observations lead us to propose the context-specific abstract Markov decision process (CAMP), an abstraction of a factored MDP that affords efficient planning. We then describe how to learn constraints to impose so the CAMP optimizes a trade-off between rewards and computational cost. Our experiments consider five planners across four domains, including robotic navigation among movable obstacles (NAMO), robotic task and motion planning for sequential manipulation, and classical planning. We find planning with learned CAMPs to consistently outperform baselines, including Stilman's NAMO-specific algorithm. Video: https://youtu.be/wTXt6djcAd4 Code: https://git.io/JTnf6
翻訳日:2022-11-06 19:44:50 公開日:2020-11-08
# fedml: フェデレーション機械学習のための研究ライブラリとベンチマーク

FedML: A Research Library and Benchmark for Federated Machine Learning ( http://arxiv.org/abs/2007.13518v4 )

ライセンス: Link先を確認
Chaoyang He, Songze Li, Jinhyun So, Xiao Zeng, Mi Zhang, Hongyi Wang, Xiaoyang Wang, Praneeth Vepakomma, Abhishek Singh, Hang Qiu, Xinghua Zhu, Jianzong Wang, Li Shen, Peilin Zhao, Yan Kang, Yang Liu, Ramesh Raskar, Qiang Yang, Murali Annavaram, Salman Avestimehr(参考訳) フェデレート・ラーニング(Federated Learning, FL)は、機械学習の研究分野である。 しかし、既存のFLライブラリは多様なアルゴリズム開発を適切にサポートすることはできない。 本稿では,FLアルゴリズムの開発と公正な性能比較を容易にするオープンな研究ライブラリであるFedMLを紹介する。 FedMLはエッジデバイスのオンデバイストレーニング、分散コンピューティング、シングルマシンシミュレーションという3つのコンピューティングパラダイムをサポートしている。 FedMLはまた、フレキシブルで汎用的なAPI設計と包括的なリファレンスベースライン実装(最適化、モデル、データセット)による多様なアルゴリズムの研究を促進する。 我々はFedMLがFL研究コミュニティに利益をもたらすFLアルゴリズムの開発と評価のための効率的かつ再現可能な手段を提供することを期待している。 ソースコード、ドキュメント、ユーザコミュニティはhttps://fedml.ai.comで管理しています。

Federated learning (FL) is a rapidly growing research field in machine learning. However, existing FL libraries cannot adequately support diverse algorithmic development; inconsistent dataset and model usage make fair algorithm comparison challenging. In this work, we introduce FedML, an open research library and benchmark to facilitate FL algorithm development and fair performance comparison. FedML supports three computing paradigms: on-device training for edge devices, distributed computing, and single-machine simulation. FedML also promotes diverse algorithmic research with flexible and generic API design and comprehensive reference baseline implementations (optimizer, models, and datasets). We hope FedML could provide an efficient and reproducible means for developing and evaluating FL algorithms that would benefit the FL research community. We maintain the source code, documents, and user community at https://fedml.ai.
翻訳日:2022-11-06 07:43:52 公開日:2020-11-08
# COALESCE: 接続を合成する学習によるコンポーネントアセンブリ

COALESCE: Component Assembly by Learning to Synthesize Connections ( http://arxiv.org/abs/2008.01936v2 )

ライセンス: Link先を確認
Kangxue Yin, Zhiqin Chen, Siddhartha Chaudhuri, Matthew Fisher, Vladimir G. Kim, Hao Zhang(参考訳) 本稿では,コンポーネントベースのシェープアセンブリのための最初のデータ駆動フレームワークであるcollesceを紹介する。 部品間の幾何的および位相的ミスマッチを処理するために,浸食により不整合部を取り除き,データから学習した関節合成のステップに頼って,隙間を埋め,自然かつ可塑性な接合部に到達する。 異なる物体から抽出された入力部品のセットが与えられた後、COALESCEは自動的にそれらを整列し、可塑性ジョイントを合成し、これらの部品をメッシュで表されるコヒーレントな3Dオブジェクトに接続する。 関節領域に焦点を合わせるように設計された結合合成ネットワークは、既存の部分と一致する暗黙の形状表現を予測し、滑らかで位相的に意味のある接続を生成することによって、部品間の表面を再構築する。 テスト時間最適化により,合成されたジョイント領域が入力部と密に整合していることを確認し,多種多様な入力部から現実的なコンポーネントアセンブリを作成する。 本手法は,3次元形状合成のためのベースライン深層モデルや,形状補完のための最先端手法など,先行手法を大幅に上回っている。

We introduce COALESCE, the first data-driven framework for component-based shape assembly which employs deep learning to synthesize part connections. To handle geometric and topological mismatches between parts, we remove the mismatched portions via erosion, and rely on a joint synthesis step, which is learned from data, to fill the gap and arrive at a natural and plausible part joint. Given a set of input parts extracted from different objects, COALESCE automatically aligns them and synthesizes plausible joints to connect the parts into a coherent 3D object represented by a mesh. The joint synthesis network, designed to focus on joint regions, reconstructs the surface between the parts by predicting an implicit shape representation that agrees with existing parts, while generating a smooth and topologically meaningful connection. We employ test-time optimization to further ensure that the synthesized joint region closely aligns with the input parts to create realistic component assemblies from diverse input parts. We demonstrate that our method significantly outperforms prior approaches including baseline deep models for 3D shape synthesis, as well as state-of-the-art methods for shape completion.
翻訳日:2022-11-02 18:04:47 公開日:2020-11-08
# 期待リターンの作用に基づく分散による臨界状態の同定

Identifying Critical States by the Action-Based Variance of Expected Return ( http://arxiv.org/abs/2008.11332v2 )

ライセンス: Link先を確認
Izumi Karino, Yoshiyuki Ohmura, Yasuo Kuniyoshi(参考訳) 探索と搾取のバランスは、強化学習(RL)の促進に重要な役割を果たしている。 人間社会にRLエージェントを配備するには、その説明可能性も不可欠である。 しかしながら、基本的なrlアプローチは、その操作の簡単な説明のために有用な点を抽出するだけでなく、いつ搾取を選択するかを決定するのに困難である。 難題の1つは、これらのアプローチが全ての状態を同じ方法で扱うためである。 ここでは、臨界状態を特定し、それらを特別に扱うことが、両問題に一般的に有用であることを示す。 これらの臨界状態は、行動選択が成功と失敗の可能性を大きく変える状態である。 動作のQ-関数のばらつきを利用して臨界状態を同定し、同定された状態に対して高い確率で利用することを提案する。 これらの簡単な手法は、崖のあるグリッド世界でRLを加速し、深いRLの2つのベースラインタスクを行う。 また, 評価された臨界状態は, 行動選択の重要な性質について直感的に解釈可能であることを示した。 さらに、特に臨界状態の同定のタイミングと学習の急速な進歩との関係を解析した結果、RLを急速に加速させる重要な情報を持つ重要な状態がいくつか存在することが示唆された。

The balance of exploration and exploitation plays a crucial role in accelerating reinforcement learning (RL). To deploy an RL agent in human society, its explainability is also essential. However, basic RL approaches have difficulties in deciding when to choose exploitation as well as in extracting useful points for a brief explanation of its operation. One reason for the difficulties is that these approaches treat all states the same way. Here, we show that identifying critical states and treating them specially is commonly beneficial to both problems. These critical states are the states at which the action selection changes the potential of success and failure substantially. We propose to identify the critical states using the variance in the Q-function for the actions and to perform exploitation with high probability on the identified states. These simple methods accelerate RL in a grid world with cliffs and two baseline tasks of deep RL. Our results also demonstrate that the identified critical states are intuitively interpretable regarding the crucial nature of the action selection. Furthermore, our analysis of the relationship between the timing of the identification of especially critical states and the rapid progress of learning suggests there are a few especially critical states that have important information for accelerating RL rapidly.
翻訳日:2022-10-24 20:53:41 公開日:2020-11-08
# 収束性向上のための勾配変換による特徴白化

Feature Whitening via Gradient Transformation for Improved Convergence ( http://arxiv.org/abs/2010.01546v2 )

ライセンス: Link先を確認
Shmulik Markovich-Golan, Barak Battash, Amit Bleiweiss(参考訳) フィーチャーホワイトニングはDNNのトレーニングをスピードアップするテクニックとして知られている。 ある仮定の下では、活性化のホワイトニングはフィッシャー情報行列を単純な同一性行列に還元し、確率的勾配降下はより早い自然勾配降下と等価である。 層入力とそれに対応する勾配を前方および後方の伝播で変換し、固有値分解(evd)を繰り返し計算することにより生じる複雑さが増すため、この手法は一般には使われない。 本研究では,機能白化の複雑さの欠点に対処する。 私たちの貢献は2倍です。 まず、サンプル変換を重み勾配への変換によって置き換える等価な手法をBサンプルのバッチ毎に導出する。 複雑性はS=(2B)因子によって減少し、Sは層出力の特徴次元を表す。 分散トレーニングによってバッチサイズが増加するにつれて,提案手法の利用によるメリットが高まる。 次に, サンプル共分散行列の条件数と収束速度との理論的関係を動機とし, 後者の行列の条件数を再帰的に減少させる代替サブ最適アルゴリズムを導出する。 我々は、cifarおよびimagenetデータセットで実証された画像分類のためのresnetベースのネットワークを用いて、提案アルゴリズムを例示する。 提案アルゴリズムの並列化は簡単であり,その分散バージョンを実装している。 速度と精度の面での収束性の向上は、我々の実験で観察できる。

Feature whitening is a known technique for speeding up training of DNN. Under certain assumptions, whitening the activations reduces the Fisher information matrix to a simple identity matrix, in which case stochastic gradient descent is equivalent to the faster natural gradient descent. Due to the additional complexity resulting from transforming the layer inputs and their corresponding gradients in the forward and backward propagation, and from repeatedly computing the Eigenvalue decomposition (EVD), this method is not commonly used to date. In this work, we address the complexity drawbacks of feature whitening. Our contribution is twofold. First, we derive an equivalent method, which replaces the sample transformations by a transformation to the weight gradients, applied to every batch of B samples. The complexity is reduced by a factor of S=(2B), where S denotes the feature dimension of the layer output. As the batch size increases with distributed training, the benefit of using the proposed method becomes more compelling. Second, motivated by the theoretical relation between the condition number of the sample covariance matrix and the convergence speed, we derive an alternative sub-optimal algorithm which recursively reduces the condition number of the latter matrix. Compared to EVD, complexity is reduced by a factor of the input feature dimension M. We exemplify the proposed algorithms with ResNet-based networks for image classification demonstrated on the CIFAR and Imagenet datasets. Parallelizing the proposed algorithms is straightforward and we implement a distributed version thereof. Improved convergence, in terms of speed and attained accuracy, can be observed in our experiments.
翻訳日:2022-10-11 03:15:07 公開日:2020-11-08
# 質問応答のためのコスト効果アノテーション政策の学習

Learning a Cost-Effective Annotation Policy for Question Answering ( http://arxiv.org/abs/2010.03476v2 )

ライセンス: Link先を確認
Bernhard Kratzwald, Stefan Feuerriegel, Huan Sun(参考訳) 最先端のQA(State-of-the-art question answering)は、ラベル付けに時間がかかり高価である大量のトレーニングデータに依存する。 そのため、QAシステムのカスタマイズは困難である。 本稿では,コスト効率のよいアノテーションポリシーと半教師付きアノテーションスキームを学習するQAデータセットのアノテートのための新しいフレームワークを提案する。 後者は人間の労力を減らし、基礎となるQAシステムを利用して潜在的な候補アノテーションを提案する。 人間のアノテーションは単純にこれらの候補に対するバイナリフィードバックを提供する。 提案方式は,過去のアノテーションが性能を継続的に改善し,アノテーション全体のコストを削減できるように設計されている。 私たちの知る限りでは、この論文は最小限のアノテーションコストで質問をアノテートする問題に対処する最初の論文です。 私たちはこのフレームワークを従来の手動アノテーションと比較し、広範囲な実験を行いました。 我々の手法はアノテーションのコストの21.1%まで削減できることがわかった。

State-of-the-art question answering (QA) relies upon large amounts of training data for which labeling is time consuming and thus expensive. For this reason, customizing QA systems is challenging. As a remedy, we propose a novel framework for annotating QA datasets that entails learning a cost-effective annotation policy and a semi-supervised annotation scheme. The latter reduces the human effort: it leverages the underlying QA system to suggest potential candidate annotations. Human annotators then simply provide binary feedback on these candidates. Our system is designed such that past annotations continuously improve the future performance and thus overall annotation cost. To the best of our knowledge, this is the first paper to address the problem of annotating questions with minimal annotation cost. We compare our framework against traditional manual annotations in an extensive set of experiments. We find that our approach can reduce up to 21.1% of the annotation cost.
翻訳日:2022-10-09 23:20:45 公開日:2020-11-08
# 生理的時系列の注意尺度による損失分析

Loss-analysis via Attention-scale for Physiologic Time Series ( http://arxiv.org/abs/2010.12690v2 )

ライセンス: Link先を確認
Jiawei Yang and Jeffrey M. Hausdorff(参考訳) 生理的信号は、複数の空間的および時間的スケールにまたがる特性を持ち、マルチスケールのようなスケーリング技術による粗粒の生理的信号の複雑性分析によって示される。 残念ながら、マルチスケールによって粗粒信号から得られた結果は、スケーリング技術による損失があり、同じスケーリング技術が異なる信号に異なる損失をもたらすため、元の信号の特性を完全に反映するものではない。 もう一つの問題は、マルチスケールが信号に固有の重要な観測を考慮していないことである。 本稿では,アテンションスケールによる損失分析という時系列解析手法を提案する。 マルチスケールは注意尺度の特別な場合であることを示す。 損失分析は、以前開発された測度で捉えられなかった信号の側面を捉えるために複雑さ分析を補完することができる。 これは老化、疾患、その他の生理現象を研究するのに使うことができる。

Physiologic signals have properties across multiple spatial and temporal scales, which can be shown by the complexity-analysis of the coarse-grained physiologic signals by scaling techniques such as the multiscale. Unfortunately, the results obtained from the coarse-grained signals by the multiscale may not fully reflect the properties of the original signals because there is a loss caused by scaling techniques and the same scaling technique may bring different losses to different signals. Another problem is that multiscale does not consider the key observations inherent in the signal. Here, we show a new analysis method for time series called the loss-analysis via attention-scale. We show that multiscale is a special case of attention-scale. The loss-analysis can complement to the complexity-analysis to capture aspects of the signals that are not captured using previously developed measures. This can be used to study ageing, diseases, and other physiologic phenomenon.
翻訳日:2022-10-04 00:30:36 公開日:2020-11-08
# 胸部異常画像抽出のための微調整ernie

Fine-tuning ERNIE for chest abnormal imaging signs extraction ( http://arxiv.org/abs/2010.13040v2 )

ライセンス: Link先を確認
Zhaoning Li and Jiangtao Ren(参考訳) 胸部画像検査では胸部x線検査の結果が報告されている。 胸部画像所見からの異常画像信号の自動抽出は,臨床研究や下流医療における重要な役割を担っている。 しかし、中国の胸部画像からの情報抽出に関する研究は少ない。 本稿では,胸部異常画像信号抽出をシーケンスタグ付けおよびマッチング問題として定式化する。 そこで本研究では,前処理したERNIEを背骨とする転写異常画像信号抽出器であるERSON(CRF for Abnormal Signs ExtractiON)を提案する。 また,その属性(身体部分と程度)を,シーケンスタグ付けモデルの結果から異常な画像信号に割り当てるために,胸部画像レポートテキストの性質に基づいた,単純だが効果的なタグ2相関アルゴリズムを設計する。 本手法は,医療用ビッグデータ企業が提供するコーパスを用いて評価し,本手法が他のベースラインと比較して有意かつ一貫した改善を実現することを示す。

Chest imaging reports describe the results of chest radiography procedures. Automatic extraction of abnormal imaging signs from chest imaging reports has a pivotal role in clinical research and a wide range of downstream medical tasks. However, there are few studies on information extraction from Chinese chest imaging reports. In this paper, we formulate chest abnormal imaging sign extraction as a sequence tagging and matching problem. On this basis, we propose a transferred abnormal imaging signs extractor with pretrained ERNIE as the backbone, named EASON (fine-tuning ERNIE with CRF for Abnormal Signs ExtractiON), which can address the problem of data insufficiency. In addition, to assign the attributes (the body part and degree) to corresponding abnormal imaging signs from the results of the sequence tagging model, we design a simple but effective tag2relation algorithm based on the nature of chest imaging report text. We evaluate our method on the corpus provided by a medical big data company, and the experimental results demonstrate that our method achieves significant and consistent improvement compared to other baselines.
翻訳日:2022-10-03 04:41:06 公開日:2020-11-08
# stereo frustums: 3次元物体検出のためのsiameseパイプライン

Stereo Frustums: A Siamese Pipeline for 3D Object Detection ( http://arxiv.org/abs/2010.14599v2 )

ライセンス: Link先を確認
Xi Mo, Usman Sajid, Guanghui Wang(参考訳) 本稿では,3次元物体検出のための軽量ステレオフラストラムマッチングモジュールを提案する。 提案フレームワークは高性能な2D検出器とポイントクラウドセグメンテーションネットワークを利用して,自律走行車用3Dバウンディングボックスを補強する。 モジュールは、相違を計算するために従来のステレオマッチングを実行する代わりに、左右の両方のビューから2D提案を直接入力として受け取ります。 高度に調整されたステレオカメラから得られたエピポーラ制約に基づき、ステレオ画像ペア間の提案ごとに最適なマッチングを探索する4つのマッチングアルゴリズムを提案する。 各マッチングペアはシーンのセグメンテーションを提案し、それを3dバウンディングボックス回帰ネットワークに送信する。 KITTIデータセットの広範な実験結果から,提案したSiameseパイプラインは,最先端のステレオベース3Dバウンディングボックス回帰法よりも優れた性能を示した。

The paper proposes a light-weighted stereo frustums matching module for 3D objection detection. The proposed framework takes advantage of a high-performance 2D detector and a point cloud segmentation network to regress 3D bounding boxes for autonomous driving vehicles. Instead of performing traditional stereo matching to compute disparities, the module directly takes the 2D proposals from both the left and the right views as input. Based on the epipolar constraints recovered from the well-calibrated stereo cameras, we propose four matching algorithms to search for the best match for each proposal between the stereo image pairs. Each matching pair proposes a segmentation of the scene which is then fed into a 3D bounding box regression network. Results of extensive experiments on KITTI dataset demonstrate that the proposed Siamese pipeline outperforms the state-of-the-art stereo-based 3D bounding box regression methods.
翻訳日:2022-10-02 11:48:41 公開日:2020-11-08
# 長、短、ランダム

The Long, the Short and the Random ( http://arxiv.org/abs/2011.01649v2 )

ライセンス: Link先を確認
Giorgio Camerani(参考訳) 我々は,確率スパース$\#\Omega(\log n)$-SATインスタンスに対する決定論的アルゴリズムの存在に対して,理論的かつ実証的な確固たる証拠を提示する。 このアルゴリズムは、すべてのCNF式が持つ優れた組合せ特性を使い、その単調な部分形式の空間に対する不満足な割り当ての数に関連する。

We furnish solid evidence, both theoretical and empirical, towards the existence of a deterministic algorithm for random sparse $\#\Omega(\log n)$-SAT instances, which computes the exact counting of satisfying assignments in sub-exponential time. The algorithm uses a nice combinatorial property that every CNF formula has, which relates its number of unsatisfying assignments to the space of its monotone sub-formulae.
翻訳日:2022-09-30 05:54:26 公開日:2020-11-08
# 確率自由推論のための統計ソフトウェアパッケージエンジンの拡張

Extending the statistical software package Engine for Likelihood-Free Inference ( http://arxiv.org/abs/2011.03977v1 )

ライセンス: Link先を確認
Vasileios Gkolemis, Michael Gutmann(参考訳) ベイズ推論は不確実性を扱うための原理的なフレームワークである。 実践者は、モデル化したい物理的現象(優先的信念)の最初の仮定を実行し、いくつかのデータを収集し、新しい証拠(後の信念)に照らして最初の仮定を調整することができる。 近似ベイズ計算(英: approximation bayesian computation、abc)は、確率が難解であるときに推論を行うためのモデルである。 これらのモデルのユニークな要件はブラックボックスサンプリングマシンである。 モデリング自由度のため、これらのアプローチは特にcaptivatingである。 ロバスト最適化モンテカルロ(ROMC)は、特定の領域の最新の技術の一つである。 独立最適化問題を解くことで後続分布を近似する。 この論文は、ソフトウェアパッケージ Engine for Likelihood-Free Inference (ELFI) におけるROMCメソッドの実装に焦点を当てている。 第1章では,romcアプローチの数学的定式化とアルゴリズム記述について述べる。 下記の章では、実装について述べます。 (a)ユーザに提供された機能をすべて提示し、 (b)実例で推論を行う方法を示す。 本実装は,シミュレータベースモデル上で推論を行おうとする実践者に対して,堅牢かつ効率的なソリューションを提供する。 さらに、並列処理を利用して、可能な限り推論を高速化する。 最後に、拡張性を提供するように設計されている。ユーザは開発側の大きなオーバーヘッドを伴わずに、メソッドの特定の部分を簡単に置き換えることができる。 そのため、研究者がさらなる実験に利用することができる。

Bayesian inference is a principled framework for dealing with uncertainty. The practitioner can perform an initial assumption for the physical phenomenon they want to model (prior belief), collect some data and then adjust the initial assumption in the light of the new evidence (posterior belief). Approximate Bayesian Computation (ABC) methods, also known as likelihood-free inference techniques, are a class of models used for performing inference when the likelihood is intractable. The unique requirement of these models is a black-box sampling machine. Due to the modelling-freedom they provide these approaches are particularly captivating. Robust Optimisation Monte Carlo (ROMC) is one of the most recent techniques of the specific domain. It approximates the posterior distribution by solving independent optimisation problems. This dissertation focuses on the implementation of the ROMC method in the software package Engine for Likelihood-Free Inference (ELFI). In the first chapters, we provide the mathematical formulation and the algorithmic description of the ROMC approach. In the following chapters, we describe our implementation; (a) we present all the functionalities provided to the user and (b) we demonstrate how to perform inference on some real examples. Our implementation provides a robust and efficient solution to a practitioner who wants to perform inference on a simulator-based model. Furthermore, it exploits parallel processing for accelerating the inference wherever it is possible. Finally, it has been designed to serve extensibility; the user can easily replace specific subparts of the method without significant overhead on the development side. Therefore, it can be used by a researcher for further experimentation.
翻訳日:2022-09-28 08:56:15 公開日:2020-11-08
# Adaptive Federated Dropout: フェデレーション学習におけるコミュニケーション効率の向上と一般化

Adaptive Federated Dropout: Improving Communication Efficiency and Generalization for Federated Learning ( http://arxiv.org/abs/2011.04050v1 )

ライセンス: Link先を確認
Nader Bouacida, Jiahui Hou, Hui Zang and Xin Liu(参考訳) 近年、ユーザーのプライバシーに敏感なデータ保護に取り組む規制が増加し、そのようなデータへのアクセスは制限され、議論の的になっている。 携帯電話などの分散エンティティで生成および配置されたデータの富を活用するために、フェデレートラーニング(Federated Learning)として知られる革命的な分散機械学習設定では、異なる地理的場所に位置する複数のクライアントが、すべてのデータをデバイス上に保持しながら、機械学習モデルを協調的に学習することができる。 しかし、連合学習の規模と分散化は新たな課題をもたらす。 クライアントとサーバ間のコミュニケーションは、連合学習の収束時間における主要なボトルネックと考えられている。 本稿では,連合学習に関連するコミュニケーションコストを削減する新しい手法であるadaptive federated dropout(afd)を提案し,検討する。 グローバルモデルの選択したサブセット上でクライアントがローカルにトレーニングできるように、サーバ-クライアント通信と計算コストの両方を最適化する。 この手法と既存の圧縮手法を組み合わせることで,総計57倍の収束時間を短縮できることを実証的に示した。 また、通信効率の最先端ソリューションよりも優れています。 さらに、モデル一般化を最大1.7%改善する。

With more regulations tackling users' privacy-sensitive data protection in recent years, access to such data has become increasingly restricted and controversial. To exploit the wealth of data generated and located at distributed entities such as mobile phones, a revolutionary decentralized machine learning setting, known as Federated Learning, enables multiple clients located at different geographical locations to collaboratively learn a machine learning model while keeping all their data on-device. However, the scale and decentralization of federated learning present new challenges. Communication between the clients and the server is considered a main bottleneck in the convergence time of federated learning. In this paper, we propose and study Adaptive Federated Dropout (AFD), a novel technique to reduce the communication costs associated with federated learning. It optimizes both server-client communications and computation costs by allowing clients to train locally on a selected subset of the global model. We empirically show that this strategy, combined with existing compression methods, collectively provides up to 57x reduction in convergence time. It also outperforms the state-of-the-art solutions for communication efficiency. Furthermore, it improves model generalization by up to 1.7%.
翻訳日:2022-09-28 08:55:55 公開日:2020-11-08
# 知識蒸留による組込みCTR予測

Ensembled CTR Prediction via Knowledge Distillation ( http://arxiv.org/abs/2011.04106v1 )

ライセンス: Link先を確認
Jieming Zhu, Jinyang Liu, Weiqi Li, Jincai Lai, Xiuqiang He, Liang Chen, Zibin Zheng(参考訳) 近年、深層学習に基づくモデルがクリックスルー率(CTR)予測のために広く研究され、多くの産業アプリケーションにおいて予測精度が向上している。 しかし、現在の研究は主に複雑なネットワークアーキテクチャを構築し、高度な機能相互作用と動的なユーザー行動をよりよく捉えることに焦点を当てている。 モデル複雑性の増加は、オンライン推論を遅くし、リアルタイムアプリケーションでの採用を妨げる可能性がある。 代わりに、知識蒸留(KD)に基づく新しいモデルトレーニング戦略を目標としています。 KDは、教師モデルから学んだ知識を学生モデルに移すための教師学生学習フレームワークである。 KD戦略は、バニラDNNモデルとして学生モデルを単純化するだけでなく、最先端の教師モデルよりも大幅に精度を向上する。 この利点は、より正確な学生モデルトレーニングのための強力な教師のアンサンブルの使用をさらに探求する動機となっている。 また,教師のゲーティングや蒸留損失による早期停止など,CTR予測のアンサンブル化を促進する新しい手法を提案する。 12の既存モデルと3つの産業データセットに対して包括的な実験を行います。 オフラインおよびオンラインA/Bテストの結果は、我々のKDベースのトレーニング戦略の有効性を示している。

Recently, deep learning-based models have been widely studied for click-through rate (CTR) prediction and lead to improved prediction accuracy in many industrial applications. However, current research focuses primarily on building complex network architectures to better capture sophisticated feature interactions and dynamic user behaviors. The increased model complexity may slow down online inference and hinder its adoption in real-time applications. Instead, our work targets at a new model training strategy based on knowledge distillation (KD). KD is a teacher-student learning framework to transfer knowledge learned from a teacher model to a student model. The KD strategy not only allows us to simplify the student model as a vanilla DNN model but also achieves significant accuracy improvements over the state-of-the-art teacher models. The benefits thus motivate us to further explore the use of a powerful ensemble of teachers for more accurate student model training. We also propose some novel techniques to facilitate ensembled CTR prediction, including teacher gating and early stopping by distillation loss. We conduct comprehensive experiments against 12 existing models and across three industrial datasets. Both offline and online A/B testing results show the effectiveness of our KD-based training strategy.
翻訳日:2022-09-28 08:54:54 公開日:2020-11-08
# kimera-multi:分散マルチロボットメトリック・セマンティクス同時ローカライズとマッピングのためのシステム

Kimera-Multi: a System for Distributed Multi-Robot Metric-Semantic Simultaneous Localization and Mapping ( http://arxiv.org/abs/2011.04087v1 )

ライセンス: Link先を確認
Yun Chang, Yulun Tian, Jonathan P. How, Luca Carlone(参考訳) 本稿では,高密度なメソジカル・セマンティック・同時局在マッピング(SLAM)のための,最初の完全分散マルチロボットシステムを提案する。 私たちのシステムはKimera-Multiと呼ばれ、視覚的慣性センサーを備えたロボットチームによって実装され、メッシュの各面にセマンティックラベル(建築、道路、オブジェクトなど)をアノテートした環境の3Dメッシュモデルをリアルタイムで構築する。 Kimera-Multiでは、各ロボットがKimeraを使って局所軌道推定と局所メッシュを構築する。 そして,2つのロボットが通信範囲内にある場合,ロボット間のループ閉鎖を利用して局所軌道推定を改善するため,分散位置認識とロバストポーズグラフ最適化プロトコルを新たに導入する。 最後に,各ロボットは改良された軌道推定値を用いてメッシュ変形手法を用いて局所メッシュを補正する。 我々はフォトリアリスティックシミュレーションと実データでKimera-Multiを実証する。 キメラ・マルチ (i)正確な3Dメトリックセマンティックメッシュを構築することができる。 (ii) 最先端の分散SLAMバックエンドよりも少ない計算を必要としながら、誤閉ループに対して頑健である。 (iii)は、各ロボットの計算量と通信帯域の両面で効率的である。

We present the first fully distributed multi-robot system for dense metric-semantic Simultaneous Localization and Mapping (SLAM). Our system, dubbed Kimera-Multi, is implemented by a team of robots equipped with visual-inertial sensors, and builds a 3D mesh model of the environment in real-time, where each face of the mesh is annotated with a semantic label (e.g., building, road, objects). In Kimera-Multi, each robot builds a local trajectory estimate and a local mesh using Kimera. Then, when two robots are within communication range, they initiate a distributed place recognition and robust pose graph optimization protocol with a novel incremental maximum clique outlier rejection; the protocol allows the robots to improve their local trajectory estimates by leveraging inter-robot loop closures. Finally, each robot uses its improved trajectory estimate to correct the local mesh using mesh deformation techniques. We demonstrate Kimera-Multi in photo-realistic simulations and real data. Kimera-Multi (i) is able to build accurate 3D metric-semantic meshes, (ii) is robust to incorrect loop closures while requiring less computation than state-of-the-art distributed SLAM back-ends, and (iii) is efficient, both in terms of computation at each robot as well as communication bandwidth.
翻訳日:2022-09-28 08:54:36 公開日:2020-11-08
# トンプソンサンプリングの漸近収束

Asymptotic Convergence of Thompson Sampling ( http://arxiv.org/abs/2011.03917v1 )

ライセンス: Link先を確認
Cem Kalkanli, Ayfer Ozgur(参考訳) トンプソンサンプリングは、様々なオンライン学習タスクにまたがる効果的なポリシーであることが示されている。 多くの作品がトンプソンサンプリングの有限時間性能を分析し、幅広い確率的設定の下で線形な後悔を達成することを証明した。 しかし、その漸近的な行動はほとんど未調査のままである。 本稿では,半線形ベイズ的後悔を仮定して,トンプソンサンプリングの漸近収束結果を証明し,トンプソンサンプリングエージェントの作用が最適作用の強い一貫した推定値を与えることを示す。 我々の結果は、トンプソンサンプリングに固有のマルティンゲール構造に依存している。

Thompson sampling has been shown to be an effective policy across a variety of online learning tasks. Many works have analyzed the finite time performance of Thompson sampling, and proved that it achieves a sub-linear regret under a broad range of probabilistic settings. However its asymptotic behavior remains mostly underexplored. In this paper, we prove an asymptotic convergence result for Thompson sampling under the assumption of a sub-linear Bayesian regret, and show that the actions of a Thompson sampling agent provide a strongly consistent estimator of the optimal action. Our results rely on the martingale structure inherent in Thompson sampling.
翻訳日:2022-09-28 08:54:14 公開日:2020-11-08
# 異種大規模MIMOネットワークにおけるビームフォームの学習

Learning to Beamform in Heterogeneous Massive MIMO Networks ( http://arxiv.org/abs/2011.03971v1 )

ライセンス: Link先を確認
Minghe Zhu, Tsung-Hui Chang and Mingyi Hong(参考訳) 大規模マルチインプット・マルチアウトプット(MIMO)ネットワークにおける最適ビームフォーマの探索問題は,その非凸性のため困難であり,従来の最適化アルゴリズムでは計算コストが高いことが知られている。 計算効率のよいディープラーニングに基づく手法が提案されているが、その複雑さは送信アンテナ数などのシステムパラメータに大きく依存しているため、基地局(BS)が異なる送信アンテナ数を持ち、BS間距離が異なる不均一なシナリオに展開しても、一般的にはうまく一般化しない。 本稿では,これらの課題に対処する新しい深層学習に基づくビームフォーミングアルゴリズムを提案する。 具体的には、多入力・単一出力(miso)干渉チャネルにおける重み付き和率(wsr)最大化問題を検討し、並列勾配投影アルゴリズムを展開することでディープニューラルネットワークアーキテクチャを提案する。 驚くべきことに、最適ビームフォーミングソリューションの低次元構造を活用することで、構築されたニューラルネットワークは、送信アンテナやBSの数に依存しないものにすることができる。 さらに、このような設計を協調型マルチセルネットワークに拡張することもできる。 合成およびレイトレーシングチャネルモデルに基づく数値計算の結果,提案したニューラルネットワークは,アンテナ数,BS数,BS間距離に関して良好な一般化能力を示しながら,実行時間を大幅に削減した高いWSRを実現することができることがわかった。

It is well-known that the problem of finding the optimal beamformers in massive multiple-input multiple-output (MIMO) networks is challenging because of its non-convexity, and conventional optimization based algorithms suffer from high computational costs. While computationally efficient deep learning based methods have been proposed, their complexity heavily relies upon system parameters such as the number of transmit antennas, and therefore these methods typically do not generalize well when deployed in heterogeneous scenarios where the base stations (BSs) are equipped with different numbers of transmit antennas and have different inter-BS distances. This paper proposes a novel deep learning based beamforming algorithm to address the above challenges. Specifically, we consider the weighted sum rate (WSR) maximization problem in multi-input and single-output (MISO) interference channels, and propose a deep neural network architecture by unfolding a parallel gradient projection algorithm. Somewhat surprisingly, by leveraging the low-dimensional structures of the optimal beamforming solution, our constructed neural network can be made independent of the numbers of transmit antennas and BSs. Moreover, such a design can be further extended to a cooperative multicell network. Numerical results based on both synthetic and ray-tracing channel models show that the proposed neural network can achieve high WSRs with significantly reduced runtime, while exhibiting favorable generalization capability with respect to the antenna number, BS number and the inter-BS distance.
翻訳日:2022-09-28 08:54:03 公開日:2020-11-08
# データからハイブリッド制御障壁関数を学習する

Learning Hybrid Control Barrier Functions from Data ( http://arxiv.org/abs/2011.04112v1 )

ライセンス: Link先を確認
Lars Lindemann, Haimin Hu, Alexander Robey, Hanwen Zhang, Dimos V. Dimarogonas, Stephen Tu, and Nikolai Matni(参考訳) ハイブリッドシステムの安全制御則を得るための体系的ツールの欠如に動機づけられ,データから確実かつ安全な制御則を学習するための最適化ベースのフレームワークを提案する。 特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。 安全制御入力を合成する手段として,ハイブリッドシステムのハイブリッド制御障壁関数を提案する。 この概念に基づき,このようなハイブリッド制御障壁関数をデータから学習するための最適化ベースのフレームワークを提案する。 重要となるのは、最適化問題の実現可能性によって学習したハイブリッド制御障壁関数の正確性が確保され、システムの安全性が確保されるようなデータ上の十分な条件を特定することである。 コンパス歩行歩行器を含む2つのシミュレーション研究で得られた知見について述べる。

Motivated by the lack of systematic tools to obtain safe control laws for hybrid systems, we propose an optimization-based framework for learning certifiably safe control laws from data. In particular, we assume a setting in which the system dynamics are known and in which data exhibiting safe system behavior is available. We propose hybrid control barrier functions for hybrid systems as a means to synthesize safe control inputs. Based on this notion, we present an optimization-based framework to learn such hybrid control barrier functions from data. Importantly, we identify sufficient conditions on the data such that feasibility of the optimization problem ensures correctness of the learned hybrid control barrier functions, and hence the safety of the system. We illustrate our findings in two simulations studies, including a compass gait walker.
翻訳日:2022-09-28 08:53:36 公開日:2020-11-08
# 機械学習モデルを用いた結合写像系におけるマクロ力学の理解

Using machine-learning modelling to understand macroscopic dynamics in a system of coupled maps ( http://arxiv.org/abs/2011.05803v1 )

ライセンス: Link先を確認
Francesco Borra, Marco Baldovin(参考訳) 機械学習技術は、データから力学系をモデリングするための効率的なツールを提供するだけでなく、基礎となる物理学の最前線の調査機器としても利用できる。 より高度なアドホック技術を必要とする原動力学に関する非自明な情報は、そのような手法を慎重に利用することで得られる。 この点を説明するために,グローバルに結合した地図システムから生じるマクロな動きを事例として考察する。 本研究では,機械学習手法と粗粒化プロセスの遷移確率の直接数値計算を用いて,マクロ力学のための粗粒化マルコフ過程を構築し,この2つの解析結果の比較を行った。 Our purpose is twofold: on the one hand, we want to test the ability of the stochastic machine learning approach to describe nontrivial evolution laws, as the one considered in our study; on the other hand, we aim at gaining some insight into the physics of the macroscopic dynamics by modulating the information available to the network, we are able to infer important information about the effective dimension of the attractor, the persistence of memory effects and the multi-scale structure of the dynamics.

Machine learning techniques not only offer efficient tools for modelling dynamical systems from data, but can also be employed as frontline investigative instruments for the underlying physics. Nontrivial information about the original dynamics, which would otherwise require sophisticated ad-hoc techniques, can be obtained by a careful usage of such methods. To illustrate this point, we consider as a case study the macroscopic motion emerging from a system of globally coupled maps. We build a coarse-grained Markov process for the macroscopic dynamics both with a machine learning approach and with a direct numerical computation of the transition probability of the coarse-grained process, and we compare the outcomes of the two analyses. Our purpose is twofold: on the one hand, we want to test the ability of the stochastic machine learning approach to describe nontrivial evolution laws, as the one considered in our study; on the other hand, we aim at gaining some insight into the physics of the macroscopic dynamics by modulating the information available to the network, we are able to infer important information about the effective dimension of the attractor, the persistence of memory effects and the multi-scale structure of the dynamics.
翻訳日:2022-09-28 08:53:24 公開日:2020-11-08
# 高速サブストリングマッチングのためのスカウトアルゴリズム

Scout Algorithm For Fast Substring Matching ( http://arxiv.org/abs/2011.04010v1 )

ライセンス: Link先を確認
Anand Natrajan, Mallige Anand(参考訳) 厳密なサブストリングマッチングは多くのソフトウェアアプリケーションで一般的なタスクである。 ターゲット文字列にパターン文字列が存在するかどうかを判断するアルゴリズムがいくつか存在するにもかかわらず、最も一般的な実装はna\\\, brute force approachである。 別のアプローチでは、追加の複雑さに対して十分な利益が得られないか、Unicodeのような現代の文字集合では実用的でない。 我々は、すべてのアプリケーションに簡単で、迅速かつ適切な新しいアルゴリズム、Scoutを提示する。 また,Scoutアルゴリズムの性能特性を他のいくつかのアルゴリズムと比較した。

Exact substring matching is a common task in many software applications. Despite the existence of several algorithms for finding whether or not a pattern string is present in a target string, the most common implementation is a na\"ive, brute force approach. Alternative approaches either do not provide enough of a benefit for the added complexity, or are impractical for modern character sets, e.g., Unicode. We present a new algorithm, Scout, that is straightforward, quick and appropriate for all applications. We also compare the performance characteristics of the Scout algorithm with several others.
翻訳日:2022-09-28 08:46:50 公開日:2020-11-08
# プロヴァンスに基づくマルチエージェント情報分析の解釈

Provenance-Based Interpretation of Multi-Agent Information Analysis ( http://arxiv.org/abs/2011.04016v1 )

ライセンス: Link先を確認
Scott Friedman, Jeff Rye, David LaVergne, Dan Thomsen, Matthew Allen, Kyle Tunis(参考訳) 分析ソフトウェアツールとワークフローは能力、複雑性、数、スケールが増加しており、ワークフローの整合性は相変わらず重要です。 具体的には,(1)結論の信頼性,(2)関連する操作のリスクとバイアス,(3)情報源やエージェントに対する結論の感度,(4)さまざまなソースやエージェントに対する影響と妥当性,(5)結論を支持するソースの多様性を評価するために,分析ワークフローのプロセスを検査しなくてはならない。 本稿では,エージェントの評価とエビデンスリンク(DIVEオントロジーで表現される)と合わせて,エージェントのPROV-Oによる証明を追跡するアプローチを提案する。 PROV-O と DIVE を併用することで,信頼性の動的伝播と反実的難読化を実現し,人間の機械的信頼と分析的整合性を向上させる。 ユーザとの対話のために開発された代表的ソフトウェアを紹介し,そのようなアプローチを採用する組織にとって重要なニーズについて論じる。 インタラクティブなWebベースの情報検証UIを用いて,これらの評価をマルチエージェント分析シナリオで実証する。

Analytic software tools and workflows are increasing in capability, complexity, number, and scale, and the integrity of our workflows is as important as ever. Specifically, we must be able to inspect the process of analytic workflows to assess (1) confidence of the conclusions, (2) risks and biases of the operations involved, (3) sensitivity of the conclusions to sources and agents, (4) impact and pertinence of various sources and agents, and (5) diversity of the sources that support the conclusions. We present an approach that tracks agents' provenance with PROV-O in conjunction with agents' appraisals and evidence links (expressed in our novel DIVE ontology). Together, PROV-O and DIVE enable dynamic propagation of confidence and counter-factual refutation to improve human-machine trust and analytic integrity. We demonstrate representative software developed for user interaction with that provenance, and discuss key needs for organizations adopting such approaches. We demonstrate all of these assessments in a multi-agent analysis scenario, using an interactive web-based information validation UI.
翻訳日:2022-09-28 08:46:41 公開日:2020-11-08
# 知的入札戦略のための深層強化学習を用いた市場パワーの探索

Exploring market power using deep reinforcement learning for intelligent bidding strategies ( http://arxiv.org/abs/2011.04079v1 )

ライセンス: Link先を確認
Alexander J. M. Kell, Matthew Forshaw, A. Stephen McGough(参考訳) 分散型電力市場は、ほとんどの電力容量を管理する小さな発電会社によって支配されることが多い。 本稿では、発電事業者の1社またはグループによる総制御電力容量が平均電力価格に与える影響について検討する。 我々は、国全体のエネルギー市場のシミュレーションである elecsim を用いてこれを実証する。 我々は,一様価格帯の電力市場での入札に決定論的政策勾配強化学習アルゴリズムを用いて,世代を代表する戦略エージェントを開発する。 均一価格市場は、すべてのプレイヤーが最も高い価格で支払われる市場である。 ElecSimは2018年にイギリスにパラメタ化されている。 この研究は、電力価格が競争力を維持するために市場を最適に規制する方法に関する政策に役立ちます。 キャパシティが1年の平均的な電力価格に影響を及ぼすことがわかりました。 もし1つの発電機会社、または1つの発電機会社の協力集団が、${\sim}$11$\%$以上の発電容量を制御し、戦略的に入札すれば、${\sim}$25$\%$で価格が上昇し始める。 市場構造と国によって、${\sim}$25\%と${\sim}$11\%の値は異なる可能性がある。 例えば、異なるロードプロファイルは、特定のタイプのジェネレータまたは異なる生成能力の分布を好むかもしれない。 戦略的に入札されたジェネレータ会社が管理するキャパシティが${\sim}$35\%を超えると、価格が指数関数的に上昇する。 平均市場価格の約2倍の市場上限の使用は、この効果を著しく減少させ、競争力のある市場を維持する効果があることを観察する。 公正で競争力のある電気市場は消費者に価値を提供し、産業と消費者の両方による電気の利用を通じてより競争力のある経済を可能にする。

Decentralized electricity markets are often dominated by a small set of generator companies who control the majority of the capacity. In this paper, we explore the effect of the total controlled electricity capacity by a single, or group, of generator companies can have on the average electricity price. We demonstrate this through the use of ElecSim, a simulation of a country-wide energy market. We develop a strategic agent, representing a generation company, which uses a deep deterministic policy gradient reinforcement learning algorithm to bid in a uniform pricing electricity market. A uniform pricing market is one where all players are paid the highest accepted price. ElecSim is parameterized to the United Kingdom for the year 2018. This work can help inform policy on how to best regulate a market to ensure that the price of electricity remains competitive. We find that capacity has an impact on the average electricity price in a single year. If any single generator company, or a collaborating group of generator companies, control more than ${\sim}$11$\%$ of generation capacity and bid strategically, prices begin to increase by ${\sim}$25$\%$. The value of ${\sim}$25\% and ${\sim}$11\% may vary between market structures and countries. For instance, different load profiles may favour a particular type of generator or a different distribution of generation capacity. Once the capacity controlled by a generator company, which bids strategically, is higher than ${\sim}$35\%, prices increase exponentially. We observe that the use of a market cap of approximately double the average market price has the effect of significantly decreasing this effect and maintaining a competitive market. A fair and competitive electricity market provides value to consumers and enables a more competitive economy through the utilisation of electricity by both industry and consumers.
翻訳日:2022-09-28 08:46:23 公開日:2020-11-08
# 人工知能平面の進化

Evolution of Artificial Intelligent Plane ( http://arxiv.org/abs/2011.04105v1 )

ライセンス: Link先を確認
Puneet Kumar(参考訳) インターネットの成長に伴い、ネットワークの管理、構成、監視が難しくなってきている。 最近の制御と運用のトレンドは、人間の介入を最小限に抑える人工知能ベースの自動化である。 この概念は、いくつかの異なる名前で10年前から導入されてきたが、基盤となる目標は同じであり、ネットワークを組み立てたり、構成が変更されたら再組み立てしたり、自分自身で問題を検出して修正したりする。 その結果、データプレーン、コントロールプレーン、マネジメントプレーンに加えて、人工知能(AI)プレーンと呼ばれる新しいプレーンが導入された。 私たちの主な目的は、さまざまなタイプのネットワークで提案されるすべての主要なAIプレーン技術、フレームワーク、アルゴリズムを分析することです。 我々は,AIプレーンのすべての側面をカバーする,包括的でネットワークに依存しないフレームワークを提案する。 aiプレーンをシンプルにするために、このフレームワークは、今後の研究における関連する課題と設計上の考慮点を強調する。 私たちの知る限りでは、いくつかのタイプのネットワークにおけるAIプレーンと調査問題との完全な比較を示す最初の調査レポートである。

With the growth of the internet, it is becoming hard to manage, configure and monitor networks. Recent trends to control and operate them is artificial intelligence based automation to minimize human intervention. Albeit this concept has been introduced since a decade with several different names, but the underlying goal remains the same, which is to make network intelligent enough to assemble, reassemble if configuration changes, and detect a problem on its own and fix it. As a result, in addition to Data Plane, Control Plane and Management Plane, a new plane called Artificial Intelligence (AI) Plane is introduced. Our main objective is to analyze all major AI plane techniques, frameworks and algorithms proposed in various types of networks. We propose a comprehensive and network independent framework to cover all aspects of AI plane, in particular we provide a systematically means of comparison. In conjunction to make AI plane understand simpler, this framework highlights relevant challenges and design considerations for future research. To the best of our knowledge this is the first survey report which represents a complete comparison of AI planes with their investigation issues in several types of networks.
翻訳日:2022-09-28 08:45:57 公開日:2020-11-08
# コンテキストに基づくtwitter埋め込みによるcovid-19の新たな症状の検出

Detecting Emerging Symptoms of COVID-19 using Context-based Twitter Embeddings ( http://arxiv.org/abs/2011.03983v1 )

ライセンス: Link先を確認
Roshan Santosh, H. Andrew Schwartz, Johannes C. Eichstaedt, Lyle H. Ungar, Sharath C. Guntuku(参考訳) 本稿では,新型コロナウイルス(covid-19)の症状を検出するための反復的グラフベースアプローチを提案する。 より一般的に、この方法は、大きな不均衡なコーパス(例えば#COVID-19に言及するすべてのツイート)で文脈固有の単語やテキスト(例えば、症状の言及)を見つけるために適用することができる。 新型コロナウイルスの新規性を考えると,提案手法が副作用薬物反応(ADR)の検出問題に一般化するかどうかも検証する。 我々は,Twitterデータに適用されたアプローチが,CDC (Centers for Disease Control) が報告する前に,症状の言及を著しく検出できることを発見した。

In this paper, we present an iterative graph-based approach for the detection of symptoms of COVID-19, the pathology of which seems to be evolving. More generally, the method can be applied to finding context-specific words and texts (e.g. symptom mentions) in large imbalanced corpora (e.g. all tweets mentioning #COVID-19). Given the novelty of COVID-19, we also test if the proposed approach generalizes to the problem of detecting Adverse Drug Reaction (ADR). We find that the approach applied to Twitter data can detect symptom mentions substantially before being reported by the Centers for Disease Control (CDC).
翻訳日:2022-09-28 08:45:41 公開日:2020-11-08
# 変圧器を用いた自動音声認識におけるセルフアテンションの有用性について

On the Usefulness of Self-Attention for Automatic Speech Recognition with Transformers ( http://arxiv.org/abs/2011.04906v1 )

ライセンス: Link先を確認
Shucong Zhang, Erfan Loweimi, Peter Bell, Steve Renals(参考訳) イベント間の距離に制限されることなく時間的関係を捉えるトランスフォーマなどの自己追尾モデルが、競合音声認識結果を与えている。 しかし, 学習コンテキストの範囲は, 下層から上層へと拡大する一方, 音響事象は左から右の順序で短時間に発生することが多い。 これは、音声認識において、トランスフォーマーの上位自己注意エンコーダ層において、全シーケンスのグローバルビューは有用か? そこで我々は,ウォールストリートジャーナルやスイッチボード上で,より低い自己注意/フィードフォワード層エンコーダを持つモデルを訓練する。 ベースライントランスと比較して、パフォーマンス低下はなく、小さな利得が観察される。 さらに注意行列の対角性に関する新しい指標を開発し、学習された対角性が下方から上方への自己着脱層に実際に増加することを見出した。 我々は、上層エンコーダ層のトレーニングにおいて、グローバルビューは不要であると結論づける。

Self-attention models such as Transformers, which can capture temporal relationships without being limited by the distance between events, have given competitive speech recognition results. However, we note the range of the learned context increases from the lower to upper self-attention layers, whilst acoustic events often happen within short time spans in a left-to-right order. This leads to a question: for speech recognition, is a global view of the entire sequence useful for the upper self-attention encoder layers in Transformers? To investigate this, we train models with lower self-attention/upper feed-forward layers encoders on Wall Street Journal and Switchboard. Compared to baseline Transformers, no performance drop but minor gains are observed. We further developed a novel metric of the diagonality of attention matrices and found the learned diagonality indeed increases from the lower to upper encoder self-attention layers. We conclude the global view is unnecessary in training upper encoder layers.
翻訳日:2022-09-28 08:45:08 公開日:2020-11-08
# 超解像に基づくロボット支援低侵襲手術のリアルタイム手術環境向上

Real-time Surgical Environment Enhancement for Robot-Assisted Minimally Invasive Surgery Based on Super-Resolution ( http://arxiv.org/abs/2011.04003v1 )

ライセンス: Link先を確認
Ruoxi Wang, Dandan Zhang, Qingbiao Li, Xiao-Yun Zhou, Benny Lo(参考訳) Robot-Assisted Minimally Invasive Surgery (RAMIS)では、通常、外科医の指示に従って腹腔鏡の位置とズーム比を制御するためにカメラアシスタントが必要とされる。 しかし,腹腔鏡を頻繁に移動させると,不安定で至適な視認が得られ,ズーム率の調整が手術のワークフローを阻害する可能性がある。 そこで本研究では,GAN(Generative Adversarial Network)に基づくマルチスケールビデオ超解像法を提案し,自動ズーム比調整のためのフレームワークを構築した。 外科手術中の関心領域(ROI)の高品質な可視化のために、自動リアルタイムズームを提供する。 このフレームワークのパイプラインでは、カーネル相関フィルタ(kcf)トラッカが手術用具の先端を追跡し、半グローバルブロックマッチング(sgbm)ベースの深さ推定とrnn(recurrent neural network)ベースのコンテキストアウェアネスを開発し、ズームのスケールアップ率を決定する。 このフレームワークは、JIGSAWデータセットとHamlyn Centre Laparoscopic/Endoscopic Video Datasetsで検証されており、その実践性を示している。

In Robot-Assisted Minimally Invasive Surgery (RAMIS), a camera assistant is normally required to control the position and zooming ratio of the laparoscope, following the surgeon's instructions. However, moving the laparoscope frequently may lead to unstable and suboptimal views, while the adjustment of zooming ratio may interrupt the workflow of the surgical operation. To this end, we propose a multi-scale Generative Adversarial Network (GAN)-based video super-resolution method to construct a framework for automatic zooming ratio adjustment. It can provide automatic real-time zooming for high-quality visualization of the Region Of Interest (ROI) during the surgical operation. In the pipeline of the framework, the Kernel Correlation Filter (KCF) tracker is used for tracking the tips of the surgical tools, while the Semi-Global Block Matching (SGBM) based depth estimation and Recurrent Neural Network (RNN)-based context-awareness are developed to determine the upscaling ratio for zooming. The framework is validated with the JIGSAW dataset and Hamlyn Centre Laparoscopic/Endoscopic Video Datasets, with results demonstrating its practicability.
翻訳日:2022-09-28 08:44:51 公開日:2020-11-08
# 確率計算の原理 : 基本概念と応用

Principles of Stochastic Computing: Fundamental Concepts and Applications ( http://arxiv.org/abs/2011.05153v1 )

ライセンス: Link先を確認
S. Rahimi Kari(参考訳) 半導体とIC産業は高エネルギー消費の問題に直面している。 現代のコンピュータと処理システムはチューリングマシンとフォン・ノイマンのアーキテクチャに基づいて設計されている。 このアーキテクチャは主に決定論的行動に基づくシステムの設計に焦点を当てた。 システムのエネルギー消費と信頼性に取り組むため、確率計算を導入した。 本研究では,確率計算とその実装技術の背後にある原理をレビューし,研究することを目的とする。 確率計算を利用すれば,演算単位の設計においてエネルギー効率が向上し,面積が小さくなる。 また,未来的BLSIおよびニューロモルフィックシステムの設計において,確率システムのアフィリエイトを広めることを目指す。

The semiconductor and IC industry is facing the issue of high energy consumption. In modern days computers and processing systems are designed based on the Turing machine and Von Neumann's architecture. This architecture mainly focused on designing systems based on deterministic behaviors. To tackle energy consumption and reliability in systems, Stochastic Computing was introduced. In this research, we aim to review and study the principles behind stochastic computing and its implementation techniques. By utilizing stochastic computing, we can achieve higher energy efficiency and smaller area sizes in terms of designing arithmetic units. Also, we aim to popularize the affiliation of Stochastic systems in designing futuristic BLSI and Neuromorphic systems.
翻訳日:2022-09-28 08:44:33 公開日:2020-11-08
# FlowCaps: アクション認識のためのカプセルネットワークによる光フロー推定

FlowCaps: Optical Flow Estimation with Capsule Networks For Action Recognition ( http://arxiv.org/abs/2011.03958v1 )

ライセンス: Link先を確認
Vinoj Jayasundara, Debaditya Roy, Basura Fernando(参考訳) カプセルネットワーク(CapsNets)は、最近、ほとんどのコンピュータビジョンタスク、特にシーン理解に関連することを約束している。 本稿では、畳み込みニューラルネットワーク(CNN)がすでに他のアプローチよりも優れている課題である光フロー推定におけるCapsNetの機能について検討する。 本稿では,FlowCapsと呼ばれるCapsNetベースのアーキテクチャを提案する。 a) 光流量推定に不可欠な細粒度、運動特化及びより解釈可能な符号化によるより良い対応マッチングを実現すること。 b)より一般化された光流量推定を行う。 c) より少ない真理データを利用して、 d) CNNカウンタ部と比較して, 性能向上における計算複雑性を著しく低減する。

Capsule networks (CapsNets) have recently shown promise to excel in most computer vision tasks, especially pertaining to scene understanding. In this paper, we explore CapsNet's capabilities in optical flow estimation, a task at which convolutional neural networks (CNNs) have already outperformed other approaches. We propose a CapsNet-based architecture, termed FlowCaps, which attempts to a) achieve better correspondence matching via finer-grained, motion-specific, and more-interpretable encoding crucial for optical flow estimation, b) perform better-generalizable optical flow estimation, c) utilize lesser ground truth data, and d) significantly reduce the computational complexity in achieving good performance, in comparison to its CNN-counterparts.
翻訳日:2022-09-28 08:38:23 公開日:2020-11-08
# 大きなランダムパターンにおける1画素変化のコントラストと色特定指標としての自己組織化マップの量子化誤差

The quantization error in a Self-Organizing Map as a contrast and colour specific indicator of single-pixel change in large random patterns ( http://arxiv.org/abs/2011.03970v1 )

ライセンス: Link先を確認
John M Wandeto, Birgitta Dresp-Langley(参考訳) 教師なし学習を伴う固定サイズの自己組織化マップ (som) における量子化誤差は, 医療用時系列画像と衛星画像の時系列画像において, 最小の計算時間において, 極めて有意義な変化を検出できた。 ここでは、SOMにおける量子化誤差の関数的性質について、局所的なコントラスト強度とコントラスト符号の最も細かい違いを確実に判別できることを示す。 このQEの能力は、霊長類と猫の視覚系における特定の種類の網膜神経節細胞(いわゆるY細胞)の機能的特性に似ているが、QEの感度は人間の視覚的検出能力の限界を超える。 ここで、SOMにおける量子化誤差は、コントラスト情報の除去または付加時にコントラストや色の変化を確実に信号するが、コントラスト情報の量と相対重みが一定であり、パターン中のコントラスト要素の局所的位置のみが変化しない。 RGB Meanは、色やコントラストの粗い変化を十分に反映しているが、最大500万ピクセルの画像の単一ピクセル変化の検出において、SOM-QEはRGB Meanよりも優れていた。 これは、深層学習ブロックを含む大規模な画像データ(ビッグデータ)に対する教師なし画像学習と計算ビルディングブロックのアプローチの文脈において重要な意味を持ち、透過型または走査型電子顕微鏡(TEM、SEM)におけるナノスケールのコントラスト変化の自動検出や、マルチスペクトルおよび超スペクトルイメージングデータにおけるサブピクセルレベルのコントラスト検出に影響を及ぼす可能性がある。

The quantization error in a fixed-size Self-Organizing Map (SOM) with unsupervised winner-take-all learning has previously been used successfully to detect, in minimal computation time, highly meaningful changes across images in medical time series and in time series of satellite images. Here, the functional properties of the quantization error in SOM are explored further to show that the metric is capable of reliably discriminating between the finest differences in local contrast intensities and contrast signs. While this capability of the QE is akin to functional characteristics of a specific class of retinal ganglion cells (the so-called Y-cells) in the visual systems of the primate and the cat, the sensitivity of the QE surpasses the capacity limits of human visual detection. Here, the quantization error in the SOM is found to reliably signal changes in contrast or colour when contrast information is removed from or added to the image, but not when the amount and relative weight of contrast information is constant and only the local spatial position of contrast elements in the pattern changes. While the RGB Mean reflects coarser changes in colour or contrast well enough, the SOM-QE is shown to outperform the RGB Mean in the detection of single-pixel changes in images with up to five million pixels. This could have important implications in the context of unsupervised image learning and computational building block approaches to large sets of image data (big data), including deep learning blocks, and automatic detection of contrast change at the nanoscale in Transmission or Scanning Electron Micrographs (TEM, SEM), or at the subpixel level in multispectral and hyper-spectral imaging data.
翻訳日:2022-09-28 08:38:10 公開日:2020-11-08
# 拡張生成型逆ネットワークと情報最大化を用いた画像クラスタリング

Image Clustering using an Augmented Generative Adversarial Network and Information Maximization ( http://arxiv.org/abs/2011.04094v1 )

ライセンス: Link先を確認
Foivos Ntelemis, Yaochu Jin, Spencer A. Thomas(参考訳) 画像クラスタリングは最近、ラベルなしデータセットの可用性が高まり、大きな注目を集めている。 従来のクラスタリングアルゴリズムの効率は、使用される距離関数と特徴の次元に大きく依存する。 したがって、未処理画像または処理画像から抽出された高次元特徴に取り組む場合、性能劣化がしばしば観察される。 そこで,これらの課題に対処するために,gan(modified generative adversarial network)と補助分類器からなる深層クラスタリングフレームワークを提案する。 この修正は、学習特徴の分離性を高めるために、GANの差別化に先立ってソベルの操作を採用する。 判別器は、補助分類器への入力として表現を生成するために利用される。 適応目的関数を用いて、識別器が生成する複数の表現の発散を最小限にしてロバスト性を高めることを目的とした、表現をクラスタリングするための補助分類器を訓練する。 補助分類器は複数のクラスタヘッドのグループで実装され、寛容なハイパーパラメータを用いて不均衡なデータに取り組む。 提案手法は, CIFAR-10 と CIFAR-100 のクラスタリング手法よりもかなり優れており, STL10 と MNIST のデータセットと競合する。

Image clustering has recently attracted significant attention due to the increased availability of unlabelled datasets. The efficiency of traditional clustering algorithms heavily depends on the distance functions used and the dimensionality of the features. Therefore, performance degradation is often observed when tackling either unprocessed images or high-dimensional features extracted from processed images. To deal with these challenges, we propose a deep clustering framework consisting of a modified generative adversarial network (GAN) and an auxiliary classifier. The modification employs Sobel operations prior to the discriminator of the GAN to enhance the separability of the learned features. The discriminator is then leveraged to generate representations as the input to an auxiliary classifier. An adaptive objective function is utilised to train the auxiliary classifier for clustering the representations, aiming to increase the robustness by minimizing the divergence of multiple representations generated by the discriminator. The auxiliary classifier is implemented with a group of multiple cluster-heads, where a tolerance hyper-parameter is used to tackle imbalanced data. Our results indicate that the proposed method significantly outperforms state-of-the-art clustering methods on CIFAR-10 and CIFAR-100, and is competitive on the STL10 and MNIST datasets.
翻訳日:2022-09-28 08:36:33 公開日:2020-11-08
# MLAS: 分散シーケンスのメトリクス学習

MLAS: Metric Learning on Attributed Sequences ( http://arxiv.org/abs/2011.04062v1 )

ライセンス: Link先を確認
Zhongfang Zhuang, Xiangnan Kong, Elke Rundensteiner, Jihane Zouaoui, Aditya Arora(参考訳) 距離メトリック学習は近年注目されており、ユーザからのフィードバックに基づいて距離メトリックを学ぶことが目標となっている。 メトリック学習への従来のアプローチは、データ属性のマハラノビス距離メトリックの学習に主に焦点をあてている。 メトリック学習に関する最近の研究はシーケンシャルデータに拡張されており、シーケンシャルに構造情報しか持たないが、属性は利用できない。 しかし、現実世界のアプリケーションでは、属性のセット(例えば、ユーザセッションコンテキスト)だけでなく、カテゴリのアイテムのシーケンス(例えば、ユーザーアクション)で構成される、帰結されたシーケンスデータ(例えばクリックストリーム)がしばしば含まれる。 本稿では,属性列に基づく計量学習の問題点について考察する。 メトリック学習に関する以前の研究とは異なり、属性特徴空間におけるマハラノビス距離メトリックを超えて、シーケンスに構造情報を組み込む必要がある。 我々は,属性列間の相違を効果的に測定する距離メトリックを学習するために,MLAS(Metric Learning on Attributed Sequences)と呼ばれるディープラーニングフレームワークを提案する。 実世界のデータセットにおける実験結果から,提案したMLASフレームワークは,属性付きシーケンスの最先端手法と比較して,メトリック学習の性能を著しく向上することが示された。

Distance metric learning has attracted much attention in recent years, where the goal is to learn a distance metric based on user feedback. Conventional approaches to metric learning mainly focus on learning the Mahalanobis distance metric on data attributes. Recent research on metric learning has been extended to sequential data, where we only have structural information in the sequences, but no attribute is available. However, real-world applications often involve attributed sequence data (e.g., clickstreams), where each instance consists of not only a set of attributes (e.g., user session context) but also a sequence of categorical items (e.g., user actions). In this paper, we study the problem of metric learning on attributed sequences. Unlike previous work on metric learning, we now need to go beyond the Mahalanobis distance metric in the attribute feature space while also incorporating the structural information in sequences. We propose a deep learning framework, called MLAS (Metric Learning on Attributed Sequences), to learn a distance metric that effectively measures dissimilarities between attributed sequences. Empirical results on real-world datasets demonstrate that the proposed MLAS framework significantly improves the performance of metric learning compared to state-of-the-art methods on attributed sequences.
翻訳日:2022-09-28 08:36:11 公開日:2020-11-08
# 会話型医療サービスとしてのチャットボット

Chatbots as conversational healthcare services ( http://arxiv.org/abs/2011.03969v1 )

ライセンス: Link先を確認
Mla{\dj}an Jovanovi\'c, Marcos Baez, Fabio Casati(参考訳) チャットボットは医療サービスへのアクセスと提供のための有望なプラットフォームとして浮上している。 この証拠は、予防、診断、治療サービスの提供に積極的な役割を果たそうとする、公開可能なチャットボットが増えていることにある。 この記事では、AI自動化と意思決定における人間とAIの相互作用の側面と透明性を強調しながら、これらの新興チャットボットがヘルスケアサービス提供に関連する設計側面にどのように対処するかを詳しく説明する。

Chatbots are emerging as a promising platform for accessing and delivering healthcare services. The evidence is in the growing number of publicly available chatbots aiming at taking an active role in the provision of prevention, diagnosis, and treatment services. This article takes a closer look at how these emerging chatbots address design aspects relevant to healthcare service provision, emphasizing the Human-AI interaction aspects and the transparency in AI automation and decision making.
翻訳日:2022-09-28 08:35:29 公開日:2020-11-08
# NLGにおけるデータ効率モデリングのベストプラクティス:少ないデータで生産可能なニューラルモデルをトレーニングする方法

Best Practices for Data-Efficient Modeling in NLG:How to Train Production-Ready Neural Models with Less Data ( http://arxiv.org/abs/2011.03877v1 )

ライセンス: Link先を確認
Ankit Arun, Soumya Batra, Vikas Bhardwaj, Ashwini Challa, Pinar Donmez, Peyman Heidari, Hakan Inan, Shashank Jain, Anuj Kumar, Shawn Mei, Karthik Mohan, Michael White(参考訳) 自然言語生成(NLG)は、正しい自然なテキスト応答を定式化する役割のため、会話システムにおいて重要な要素である。 従来、NLGコンポーネントはテンプレートベースのソリューションを使用してデプロイされていた。 研究コミュニティで最近開発されたニューラルネットワークソリューションは、いくつかの利点をもたらすことが示されているが、そのようなモデルベースのソリューションの配置は、高いレイテンシ、正確性の問題、高いデータニーズのために困難だった。 本稿では,対話型システムにおけるNLGのためのデータ効率のよいニューラルソリューションの運用を支援するアプローチを提案する。 我々は、必要となるデータのごく一部しか使用せず、軽量ニューラルネットワークモデルで生産品質を達成するためのサンプリングおよびモデリング手法のファミリーを説明し、両者の徹底的な比較を示す。 その結果、ドメインの複雑さは、高いデータ効率を達成するための適切なアプローチを決定づけることを示しています。 最後に,実験から得た教訓を,製品レベルのnlgモデル開発におけるベストプラクティスの一覧にまとめ,簡単なランブックで紹介する。 重要なことに、すべての技術の最終製品は、プロダクションに確実にデプロイできる小さなシーケンシャル・ツー・シーケンス・モデル(2mb)です。

Natural language generation (NLG) is a critical component in conversational systems, owing to its role of formulating a correct and natural text response. Traditionally, NLG components have been deployed using template-based solutions. Although neural network solutions recently developed in the research community have been shown to provide several benefits, deployment of such model-based solutions has been challenging due to high latency, correctness issues, and high data needs. In this paper, we present approaches that have helped us deploy data-efficient neural solutions for NLG in conversational systems to production. We describe a family of sampling and modeling techniques to attain production quality with light-weight neural network models using only a fraction of the data that would be necessary otherwise, and show a thorough comparison between each. Our results show that domain complexity dictates the appropriate approach to achieve high data efficiency. Finally, we distill the lessons from our experimental findings into a list of best practices for production-level NLG model development, and present them in a brief runbook. Importantly, the end products of all of the techniques are small sequence-to-sequence models (2Mb) that we can reliably deploy in production.
翻訳日:2022-09-28 08:29:23 公開日:2020-11-08
# 文書レベル距離スーパービジョンからの雑音関係抽出

Denoising Relation Extraction from Document-level Distant Supervision ( http://arxiv.org/abs/2011.03888v1 )

ライセンス: Link先を確認
Chaojun Xiao, Yuan Yao, Ruobing Xie, Xu Han, Zhiyuan Liu, Maosong Sun, Fen Lin, Leyu Lin(参考訳) 遠隔監視(DS)は文レベルの関係抽出(RE)のための自動ラベル付きデータを生成するために広く用いられている。 しかし、DSの既存の成功は、文書レベルでも固有のノイズが乗じてREの性能を著しく損なう可能性があるため、より困難な文書レベルの関係抽出(DocRE)に直接転送することはできない。 この課題に対処するために,文書レベルのDSデータを複数の事前学習タスクで認知するDocREのための新しい事前学習モデルを提案する。 大規模DocREベンチマーク実験の結果,ノイズの多いDSデータから有用な情報を抽出し,有望な結果が得られることがわかった。

Distant supervision (DS) has been widely used to generate auto-labeled data for sentence-level relation extraction (RE), which improves RE performance. However, the existing success of DS cannot be directly transferred to the more challenging document-level relation extraction (DocRE), since the inherent noise in DS may be even multiplied in document level and significantly harm the performance of RE. To address this challenge, we propose a novel pre-trained model for DocRE, which denoises the document-level DS data via multiple pre-training tasks. Experimental results on the large-scale DocRE benchmark show that our model can capture useful information from noisy DS data and achieve promising results.
翻訳日:2022-09-28 08:29:03 公開日:2020-11-08
# データ・テキスト・システムの精度評価のためのゴールドスタンダード手法

A Gold Standard Methodology for Evaluating Accuracy in Data-To-Text Systems ( http://arxiv.org/abs/2011.03992v1 )

ライセンス: Link先を確認
Craig Thomson and Ehud Reiter(参考訳) ほとんどの自然言語生成システムは正確なテキストを生成する必要がある。 本稿では,データ・ツー・テキストシステムの精度評価のための金本位制として機能することを目的とした,生成テキストの精度の高品質な評価手法を提案する。 我々は,コンピュータが生成したバスケットボールのサマリーの精度を評価するために方法論を用いた。 そして、私たちのゴールド標準評価が自動メトリクスの検証にどのように役立つかを示します。

Most Natural Language Generation systems need to produce accurate texts. We propose a methodology for high-quality human evaluation of the accuracy of generated texts, which is intended to serve as a gold-standard for accuracy evaluations of data-to-text systems. We use our methodology to evaluate the accuracy of computer generated basketball summaries. We then show how our gold standard evaluation can be used to validate automated metrics
翻訳日:2022-09-28 08:28:50 公開日:2020-11-08
# 課題解決のための強化学習

Reinforcement Learning for Assignment problem ( http://arxiv.org/abs/2011.03909v1 )

ライセンス: Link先を確認
Filipp Skomorokhov (1 and 2) and George Ovchinnikov (2) ((1) Moscow Institute of Physics and Technology, (2) Skolkovo Institute of Science and Technology)(参考訳) 本稿では,ニューラルネットワークを併用した強化学習のユーザスケジューリング問題の一般的な定式化への応用について述べる。 本シミュレータは,環境の確率的変化による実世界の問題に類似している。 我々は,Q-ラーニングに基づく手法を,シミュレーションを通して最小限のペナルティを得られることを目的とした,全報酬の観点から,動的シミュレーションの数と,解析的欲求に基づく解よりも優れた結果を得た。

This paper is dedicated to the application of reinforcement learning combined with neural networks to the general formulation of user scheduling problem. Our simulator resembles real world problems by means of stochastic changes in environment. We applied Q-learning based method to the number of dynamic simulations and outperformed analytical greedy-based solution in terms of total reward, the aim of which is to get the lowest possible penalty throughout simulation.
翻訳日:2022-09-28 08:28:26 公開日:2020-11-08
# 無線スペクトルのポリシー管理と評価を実現するためのセマンティックフレームワーク

A Semantic Framework for Enabling Radio Spectrum Policy Management and Evaluation ( http://arxiv.org/abs/2011.04085v1 )

ライセンス: Link先を確認
H. Santos, A. Mulvehill, J. S. Erickson, J. P. McCusker, M. Gordon, O. Xie, S. Stouffer, G. Capraro, A. Pidwerbetsky, J. Burgess, A. Berlinsky, K. Turck, J. Ashdown, D. L. McGuinness(参考訳) 電波スペクトルは有限資源であるため、その使用と共有は政府機関によって規制されている。 これらの機関は、複数の組織、システム、デバイスにまたがるスペクトル割り当てと割り当てを管理するポリシーを定義している。 無線スペクトルのより多くの部分が商用用途にライセンスされているため、そのような政策を評価する際の自動化のレベルを高めることが、スペクトル管理の効率性と有効性にとって重要である。 我々は、連邦および非連邦機関が利用可能なスペクトルを相互に利用できるようにするための米国政府のミッションを支援するために、ダイナミックスペクトラムアクセスポリシーフレームワークを紹介します。 dsa policy frameworkは、ポリシー管理機能とspectrumアクセス要求評価を提供する機械可読ポリシーリポジトリとして機能する。 このフレームワークは、OWL と PROV-O を用いた新しいポリシー表現と、GeoSPARQL、OWL推論、知識グラフトラバーサルを混合したドメイン固有の推論実装を利用して、入ってくるスペクトルアクセス要求を評価し、どのようにポリシーが適用されたかを説明する。 このフレームワークは現在、プロトタイプのスペクトラム管理システムの一部として、さまざまな連邦無線と商業無線のセットを含む、実地でのフィールド演習をサポートするために使用されている。

Because radio spectrum is a finite resource, its usage and sharing is regulated by government agencies. These agencies define policies to manage spectrum allocation and assignment across multiple organizations, systems, and devices. With more portions of the radio spectrum being licensed for commercial use, the importance of providing an increased level of automation when evaluating such policies becomes crucial for the efficiency and efficacy of spectrum management. We introduce our Dynamic Spectrum Access Policy Framework for supporting the United States government's mission to enable both federal and non-federal entities to compatibly utilize available spectrum. The DSA Policy Framework acts as a machine-readable policy repository providing policy management features and spectrum access request evaluation. The framework utilizes a novel policy representation using OWL and PROV-O along with a domain-specific reasoning implementation that mixes GeoSPARQL, OWL reasoning, and knowledge graph traversal to evaluate incoming spectrum access requests and explain how applicable policies were used. The framework is currently being used to support live, over-the-air field exercises involving a diverse set of federal and commercial radios, as a component of a prototype spectrum management system.
翻訳日:2022-09-28 08:27:53 公開日:2020-11-08
# 周波数ゲーティング:時間周波数領域における音声強調のための畳み込みニューラルネットワークの改良

Frequency Gating: Improved Convolutional Neural Networks for Speech Enhancement in the Time-Frequency Domain ( http://arxiv.org/abs/2011.04092v1 )

ライセンス: Link先を確認
Koen Oostermeijer, Qing Wang and Jun Du(参考訳) 従来の畳み込みニューラルネットワーク(CNN)の強みの1つは、その固有の翻訳不変性である。 しかし、時間周波数領域における音声強調作業では、周波数方向の不均一性の欠如により、この特性を完全に活用することはできない。 本稿では、周波数ゲーティングと呼ばれる手法を導入し、cnnのカーネルの乗算重みを計算し、周波数依存性を持たせることで、この非効率性を改善することを提案する。 事前の時間フレームに重みが依存する時制ゲーティング、単一の時間フレームとその隣の時間フレームに基づいて重みが生成されるローカルゲーティング、各カーネルが入力データに依存しない重みを割り当てる周波数方向ゲーティングなど、いくつかのメカニズムが検討されている。 スキップ接続を用いたオートエンコーダニューラルネットワークの実験では、局所的および周波数的にゲーティングがベースラインより優れており、CNNベースの音声強調ニューラルネットワークを改善するための有効な方法であることが示された。 さらに,拡張短時間客観的インテリジェンススコア(ESTOI)に基づく損失関数を導入し,標準平均二乗誤差(MSE)損失関数より優れていることを示す。

One of the strengths of traditional convolutional neural networks (CNNs) is their inherent translational invariance. However, for the task of speech enhancement in the time-frequency domain, this property cannot be fully exploited due to a lack of invariance in the frequency direction. In this paper we propose to remedy this inefficiency by introducing a method, which we call Frequency Gating, to compute multiplicative weights for the kernels of the CNN in order to make them frequency dependent. Several mechanisms are explored: temporal gating, in which weights are dependent on prior time frames, local gating, whose weights are generated based on a single time frame and the ones adjacent to it, and frequency-wise gating, where each kernel is assigned a weight independent of the input data. Experiments with an autoencoder neural network with skip connections show that both local and frequency-wise gating outperform the baseline and are therefore viable ways to improve CNN-based speech enhancement neural networks. In addition, a loss function based on the extended short-time objective intelligibility score (ESTOI) is introduced, which we show to outperform the standard mean squared error (MSE) loss function.
翻訳日:2022-09-28 08:27:32 公開日:2020-11-08
# リアルタイムトラッキングのための高速物体追跡パイプライン

Faster object tracking pipeline for real time tracking ( http://arxiv.org/abs/2011.03910v1 )

ライセンス: Link先を確認
Parthesh Soni, Falak Shah, Nisarg Vyas(参考訳) マルチオブジェクトトラッキング(MOT)は、視覚ベースのアプリケーションにとって難しい実践的問題である。 MOTの最近のアプローチでは、Faster RCNNのようなモデルから事前計算された検出を使用して、バウンディングボックスの微調整とその後のフェーズでのアソシエーションを行う。 しかし、事前に検出できないため、実際の工業用途には適していない。 Wangらは最近の研究で、ジョイント検出と埋め込みモデルを使用して、リアルタイムでターゲットのローカライゼーションとアソシエーションを実行するトラッキングパイプラインを提案した。 検出パラダイムによるトラッキングを調査した結果,モデル予測と平行な局所化および関連タスクを実行することにより,追跡パイプラインの高速化が図られた。 これと、混合精度モデルの使用やバッチワイズ検出などの他の計算最適化は、フルHD解像度で追跡パイプラインを57.8\%(19 FPSから30 FPS)高速化する。 さらに、速度は画像列の物体密度とは無関係である。 この論文の主な貢献は、検出ベースのオブジェクト追跡メソッドを高速化するために使用できる汎用パイプラインを示すことである。 また、GPUメモリの使用状況と速度を考慮して、最適なパフォーマンスのために異なるバッチサイズをレビューした。

Multi-object tracking (MOT) is a challenging practical problem for vision based applications. Most recent approaches for MOT use precomputed detections from models such as Faster RCNN, performing fine-tuning of bounding boxes and association in subsequent phases. However, this is not suitable for actual industrial applications due to unavailability of detections upfront. In their recent work, Wang et al. proposed a tracking pipeline that uses a Joint detection and embedding model and performs target localization and association in realtime. Upon investigating the tracking by detection paradigm, we find that the tracking pipeline can be made faster by performing localization and association tasks parallely with model prediction. This, and other computational optimizations such as using mixed precision model and performing batchwise detection result in a speed-up of the tracking pipeline by 57.8\% (19 FPS to 30 FPS) on FullHD resolution. Moreover, the speed is independent of the object density in image sequence. The main contribution of this paper is showcasing a generic pipeline which can be used to speed up detection based object tracking methods. We also reviewed different batch sizes for optimal performance, taking into consideration GPU memory usage and speed.
翻訳日:2022-09-28 08:27:06 公開日:2020-11-08
# Egocentric Activity Recognitionのための人間の視線統合注意

Integrating Human Gaze into Attention for Egocentric Activity Recognition ( http://arxiv.org/abs/2011.03920v1 )

ライセンス: Link先を確認
Kyle Min, Jason J. Corso(参考訳) 人間の視線が視覚的注意に関する重要な情報を持っていることはよく知られている。 しかし、深層ニューラルネットワークの注意機構に視線データを組み込むことには3つの大きな困難がある。 1)視線固定点には、点滅や急速眼球運動による測定誤差がある可能性が高い。 2) 視線データと視覚注意との関連性は, いつ及びどの程度であるかは明らかでない。 3) 現実の状況では視線データは必ずしも利用できない。 本研究では,人間の視線を時空間的注意と統合し,自己中心的活動認識を行うための効果的な確率的アプローチを提案する。 具体的には、視線固定点の位置を構造化された離散潜在変数として表現し、不確かさをモデル化する。 さらに,変分法を用いて視線固定の分布をモデル化する。 視線分布は、学習された視線分布から予測されるため、視線位置の接地真実アノテーションがテスト状況で不要になるように訓練過程中に学習される。 予測された視線位置は、認識性能を向上させるための情報的注意手段を提供するために使用される。 本手法は,egocentric activity recognitionのための大規模データセットであるegteaの,これまでの最先端のアプローチを上回っている。 また, 注意機構が有効であることを示すため, アブレーション研究と質的分析を行った。

It is well known that human gaze carries significant information about visual attention. However, there are three main difficulties in incorporating the gaze data in an attention mechanism of deep neural networks: 1) the gaze fixation points are likely to have measurement errors due to blinking and rapid eye movements; 2) it is unclear when and how much the gaze data is correlated with visual attention; and 3) gaze data is not always available in many real-world situations. In this work, we introduce an effective probabilistic approach to integrate human gaze into spatiotemporal attention for egocentric activity recognition. Specifically, we represent the locations of gaze fixation points as structured discrete latent variables to model their uncertainties. In addition, we model the distribution of gaze fixations using a variational method. The gaze distribution is learned during the training process so that the ground-truth annotations of gaze locations are no longer needed in testing situations since they are predicted from the learned gaze distribution. The predicted gaze locations are used to provide informative attentional cues to improve the recognition performance. Our method outperforms all the previous state-of-the-art approaches on EGTEA, which is a large-scale dataset for egocentric activity recognition provided with gaze measurements. We also perform an ablation study and qualitative analysis to demonstrate that our attention mechanism is effective.
翻訳日:2022-09-28 08:26:46 公開日:2020-11-08
# 協調的・確率的マルチプレイヤー・マルチアーム・バンディット:コミュニケーションも衝突も伴わない最適後悔

Cooperative and Stochastic Multi-Player Multi-Armed Bandit: Optimal Regret With Neither Communication Nor Collisions ( http://arxiv.org/abs/2011.03896v1 )

ライセンス: Link先を確認
S\'ebastien Bubeck, Thomas Budzinski, Mark Sellke(参考訳) 確率的マルチアームバンディット問題の協調型マルチプレイヤー版を考える。 プレーヤがコミュニケーションできないが共有ランダム性にアクセスできないような体制について検討する。 最初の2人の著者による以前の研究で、この体制の戦略は2人のプレイヤーと3人の腕で構築され、後悔する$\tilde{O}(\sqrt{T})$で、プレイヤー間の衝突が全くなかった(非常に高い確率で)。 本稿では,これらの特性(オプティマイズに近く,衝突も全くない)が,どの選手や腕でも達成可能であることを示す。 高いレベルでは、以前の戦略は高次元での一般化が難しい2ドルの幾何学的直観に大きく依存していたが、ここでは新しい戦略を構築するためのより組合せ的なルートを取る。

We consider the cooperative multi-player version of the stochastic multi-armed bandit problem. We study the regime where the players cannot communicate but have access to shared randomness. In prior work by the first two authors, a strategy for this regime was constructed for two players and three arms, with regret $\tilde{O}(\sqrt{T})$, and with no collisions at all between the players (with very high probability). In this paper we show that these properties (near-optimal regret and no collisions at all) are achievable for any number of players and arms. At a high level, the previous strategy heavily relied on a $2$-dimensional geometric intuition that was difficult to generalize in higher dimensions, while here we take a more combinatorial route to build the new strategy.
翻訳日:2022-09-28 08:20:47 公開日:2020-11-08
# スパース機能選択により、バッチ強化学習のサンプル効率が向上

Sparse Feature Selection Makes Batch Reinforcement Learning More Sample Efficient ( http://arxiv.org/abs/2011.04019v1 )

ライセンス: Link先を確認
Botao Hao, Yaqi Duan, Tor Lattimore, Csaba Szepesv\'ari, Mengdi Wang(参考訳) 本稿では,分散線形関数近似を用いた高次元バッチ強化学習(rl)の統計解析を行う。 候補となる機能が多数存在する場合,提案手法がバッチRLをより効率的にサンプリングできるという事実に光を当てる。 まず、政治以外の政策評価問題を考察する。 新たな目標政策を評価するため,ラッソ適合Q値評価法を解析し,周辺次元に多項式依存のない有限サンプル誤差境界を確立する。 ラッソバイアスを低減するために,グループラッソにより選択された特徴に適合したQ-評価を適用するポストモデル選択推定器を提案する。 追加の信号強度仮定の下では、データ分布とターゲットポリシーの占有率尺度との間の分布ミスマッチを測定する分岐関数に依存するインスタンス依存の誤差境界を鋭く導出する。 さらに,バッチ政策最適化のためのラッソ適合q-イテレーションについて検討し,関連する特徴数とデータ共分散の最小固有値との比率に応じて有限サンプル誤差を定式化する。 最後に,上位値にほぼ一致するバッチデータポリシー評価/最適化のために,最小限の下位値で結果を補完する。 その結果, 疎バッチ政策学習において, 十分な条件付きデータを持つことが不可欠であることが示唆された。

This paper provides a statistical analysis of high-dimensional batch Reinforcement Learning (RL) using sparse linear function approximation. When there is a large number of candidate features, our result sheds light on the fact that sparsity-aware methods can make batch RL more sample efficient. We first consider the off-policy policy evaluation problem. To evaluate a new target policy, we analyze a Lasso fitted Q-evaluation method and establish a finite-sample error bound that has no polynomial dependence on the ambient dimension. To reduce the Lasso bias, we further propose a post model-selection estimator that applies fitted Q-evaluation to the features selected via group Lasso. Under an additional signal strength assumption, we derive a sharper instance-dependent error bound that depends on a divergence function measuring the distribution mismatch between the data distribution and occupancy measure of the target policy. Further, we study the Lasso fitted Q-iteration for batch policy optimization and establish a finite-sample error bound depending on the ratio between the number of relevant features and restricted minimal eigenvalue of the data's covariance. In the end, we complement the results with minimax lower bounds for batch-data policy evaluation/optimization that nearly match our upper bounds. The results suggest that having well-conditioned data is crucial for sparse batch policy learning.
翻訳日:2022-09-28 08:20:05 公開日:2020-11-08
# 敵対的反事実学習とレコメンデーションシステムの評価

Adversarial Counterfactual Learning and Evaluation for Recommender System ( http://arxiv.org/abs/2012.02295v1 )

ライセンス: Link先を確認
Da Xu, Chuanwei Ruan, Evren Korpeoglu, Sushant Kumar, Kannan Achan(参考訳) 推薦システムのフィードバックデータは,ユーザに対して露出したものを対象とすることが多いが,ほとんどの学習・評価手法は,その基盤となる露出メカニズムを考慮していない。 まず,ユーザ嗜好を検出するために教師付き学習を適用すると,露出情報がない場合には一貫性のない結果が得られることを示す。 因果推論による反ファクト的確率重み付け手法は露出機構を考慮できるが、フィードバックデータの部分的観測特性は識別可能性の問題を引き起こす可能性がある。 ミニマックス経験的リスクの定式化を導入することにより, 基本解を提案する。 双対問題の緩和は、2つのレコメンデーションモデル間の敵対ゲームに変換可能であり、候補モデルの相手が基礎となる露出機構を特徴付ける。 学習境界を提供し,提案手法の様々な利点について考察し,提案手法を幅広い推奨設定で説明し,正当化するための広範囲なシミュレーション研究を行う。

The feedback data of recommender systems are often subject to what was exposed to the users; however, most learning and evaluation methods do not account for the underlying exposure mechanism. We first show in theory that applying supervised learning to detect user preferences may end up with inconsistent results in the absence of exposure information. The counterfactual propensity-weighting approach from causal inference can account for the exposure mechanism; nevertheless, the partial-observation nature of the feedback data can cause identifiability issues. We propose a principled solution by introducing a minimax empirical risk formulation. We show that the relaxation of the dual problem can be converted to an adversarial game between two recommendation models, where the opponent of the candidate model characterizes the underlying exposure mechanism. We provide learning bounds and conduct extensive simulation studies to illustrate and justify the proposed approach over a broad range of recommendation settings, which shed insights on the various benefits of the proposed approach.
翻訳日:2022-09-28 08:19:06 公開日:2020-11-08
# 前立腺癌分画に対するcross-modal self-attention distillation

Cross-Modal Self-Attention Distillation for Prostate Cancer Segmentation ( http://arxiv.org/abs/2011.03908v1 )

ライセンス: Link先を確認
Guokai Zhang, Xiaoang Shen, Ye Luo, Jihao Luo, Zeju Wang, Weigang Wang, Binghui Zhao, Jianwei Lu(参考訳) 多モード磁気共鳴画像からの前立腺癌の自動分離は、患者の初期ステージングと予後にとって重要である。 しかし、マルチモーダル画像の特徴をより効率的に利用する方法は、医療画像セグメンテーションの分野ではまだ難しい問題である。 本稿では,中間層の符号化情報を異なるモダリティから完全に活用することで,クロスモーダルな自己注意蒸留網を構築し,異なるモダリティの抽出された注目マップにより,モデルが重要な空間情報をより詳細に伝達することを可能にする。 さらに、異なるモダリティ画像のより相補的な相関情報と非線形情報を学ぶために、新しい空間相関型特徴融合モジュールも用いられる。 生検にて358MRIで5倍のクロスバリデーションを施行した。 実験結果から,提案するネットワークが最先端の性能を達成することを示す。

Automatic segmentation of the prostate cancer from the multi-modal magnetic resonance images is of critical importance for the initial staging and prognosis of patients. However, how to use the multi-modal image features more efficiently is still a challenging problem in the field of medical image segmentation. In this paper, we develop a cross-modal self-attention distillation network by fully exploiting the encoded information of the intermediate layers from different modalities, and the extracted attention maps of different modalities enable the model to transfer the significant spatial information with more details. Moreover, a novel spatial correlated feature fusion module is further employed for learning more complementary correlation and non-linear information of different modality images. We evaluate our model in five-fold cross-validation on 358 MRI with biopsy confirmed. Extensive experiment results demonstrate that our proposed network achieves state-of-the-art performance.
翻訳日:2022-09-28 08:18:50 公開日:2020-11-08
# AI on the Bog: クランベリー作物のリスクの監視と評価

AI on the Bog: Monitoring and Evaluating Cranberry Crop Risk ( http://arxiv.org/abs/2011.04064v1 )

ライセンス: Link先を確認
Peri Akiva and Benjamin Planche and Aditi Roy and Kristin Dana and Peter Oudemans and Michael Mars(参考訳) 近年,精密農業のための機械ビジョンが研究の関心を集めている。 本研究の目的は、リアルタイムのクランベリー過熱評価を実現し、支援し、農業の経済性を維持するための情報的意思決定を促進するために、エンド・ツー・エンドのクランベリー健康モニタリングシステムを開発することである。 この目標に向けて,深層学習に基づくモジュールを2つ提案する。 1) 太陽に曝露したクランベリー畑画像において, 正確な果実領域を規定するクランベリー果実の分画 2)露光したクランベリーの内部温度を推定するための雲被覆条件と日射量の推定 ドローンによるフィールドデータと地上のスカイデータ収集システムを開発し,複数の地点で映像を収集し,作物の健康分析を行う。 データセットの広範な評価は、露光した果実の内温を高精度に予測できることを示している(0.02% mape)。 太陽照度予測誤差は5~20分で8.41-20.36%であった。 62.54% mIoU と 13.46 MAE が露呈した果実識別の精度を計上すると共に、近日中に日焼けのリスクが高い特定作物畑において、農夫に予防措置(灌水など)を取るための情報フィードバックを与えることができる。 この新システムはクランベリーの健康モニタリングに応用されるが、効率的な農業の先駆的な一歩であり、クランベリー過熱問題を超えた精密農業に有用である。

Machine vision for precision agriculture has attracted considerable research interest in recent years. The goal of this paper is to develop an end-to-end cranberry health monitoring system to enable and support real time cranberry over-heating assessment to facilitate informed decisions that may sustain the economic viability of the farm. Toward this goal, we propose two main deep learning-based modules for: 1) cranberry fruit segmentation to delineate the exact fruit regions in the cranberry field image that are exposed to sun, 2) prediction of cloud coverage conditions and sun irradiance to estimate the inner temperature of exposed cranberries. We develop drone-based field data and ground-based sky data collection systems to collect video imagery at multiple time points for use in crop health analysis. Extensive evaluation on the data set shows that it is possible to predict exposed fruit's inner temperature with high accuracy (0.02% MAPE). The sun irradiance prediction error was found to be 8.41-20.36% MAPE in the 5-20 minutes time horizon. With 62.54% mIoU for segmentation and 13.46 MAE for counting accuracies in exposed fruit identification, this system is capable of giving informed feedback to growers to take precautionary action (e.g. irrigation) in identified crop field regions with higher risk of sunburn in the near future. Though this novel system is applied for cranberry health monitoring, it represents a pioneering step forward for efficient farming and is useful in precision agriculture beyond the problem of cranberry overheating.
翻訳日:2022-09-28 08:11:58 公開日:2020-11-08
# 不規則サンプル部分観測から連続系のダイナミクスを学ぶ

Learning Continuous System Dynamics from Irregularly-Sampled Partial Observations ( http://arxiv.org/abs/2011.03880v1 )

ライセンス: Link先を確認
Zijie Huang, Yizhou Sun, Wei Wang(参考訳) 運動する惑星のような多くの現実世界の系は、物体が互いに相互作用し、時間と共に共進化するマルチエージェント・ダイナミックシステムと見なすことができる。 このようなダイナミクスをキャプチャするのは通常困難であり、観察された対象の軌跡に基づいたダイナミクスの理解と予測は、多くの領域において重要な研究課題となる。 しかし、既存のアルゴリズムのほとんどは、観測が定期的にサンプリングされ、全てのオブジェクトがサンプリング時間毎に完全に観察可能であると仮定している。 本稿では,基礎となるグラフ構造を持つ不規則サンプリング部分観測からシステム力学を初めて学習することを提案する。 上記の課題に対処するため、LG-ODEは、既知のグラフ構造を持つマルチエージェント動的システムをモデル化するための潜在常微分方程式生成モデルである。 高次元軌道の埋め込みと連続潜伏系力学を同時に学習することができる。 本モデルでは,不規則にサンプリングされた構造体の部分的な観察から初期状態を推定できるグラフニューラルネットワークによりパラメータ化された新しいエンコーダを用いて,任意の複雑な連続時間潜時ダイナミクスを推論する。 運動キャプチャ,バネシステム,荷電粒子データセットの実験は,我々のアプローチの有効性を実証している。

Many real-world systems, such as moving planets, can be considered as multi-agent dynamic systems, where objects interact with each other and co-evolve along with the time. Such dynamics is usually difficult to capture, and understanding and predicting the dynamics based on observed trajectories of objects become a critical research problem in many domains. Most existing algorithms, however, assume the observations are regularly sampled and all the objects can be fully observed at each sampling time, which is impractical for many applications. In this paper, we propose to learn system dynamics from irregularly-sampled partial observations with underlying graph structure for the first time. To tackle the above challenge, we present LG-ODE, a latent ordinary differential equation generative model for modeling multi-agent dynamic system with known graph structure. It can simultaneously learn the embedding of high dimensional trajectories and infer continuous latent system dynamics. Our model employs a novel encoder parameterized by a graph neural network that can infer initial states in an unsupervised way from irregularly-sampled partial observations of structural objects and utilizes neuralODE to infer arbitrarily complex continuous-time latent dynamics. Experiments on motion capture, spring system, and charged particle datasets demonstrate the effectiveness of our approach.
翻訳日:2022-09-28 08:11:02 公開日:2020-11-08
# 協調フィルタリングに基づくレコメンデーションシステムにおけるエコーチャンバー

Echo Chambers in Collaborative Filtering Based Recommendation Systems ( http://arxiv.org/abs/2011.03890v1 )

ライセンス: Link先を確認
Emil Noordeh, Roman Levin, Ruochen Jiang, Harris Shadmany(参考訳) レコメンデーションシステムは、現代におけるほぼすべてのオンラインコンテンツの提供を支える。 youtubeやnetflixのレコメンデーション、facebookフィードやgoogle検索など、これらのシステムはユーザーの予測した好みに合わせてコンテンツをフィルタリングするように設計されている。 近年、これらのシステムは、コンテンツの多様性、社会的分極、公共の談話の健全性に対する影響について、批判が高まっている。 本研究では,movielensデータセットにおけるユーザの協調フィルタリングアルゴリズムによる推薦をシミュレートする。 システム生成型レコメンデーションへの長時間の露出は、コンテンツの多様性を著しく減少させ、個々のユーザを狭い範囲のコンテンツによって特徴付けられる「エコーチャンバー」へと移行させる。 さらに,これらのエコーチャンバが確立すれば,個人の評価ベクトルのみを操作すれば,個々のユーザによる発見が困難になる可能性が示唆された。

Recommendation systems underpin the serving of nearly all online content in the modern age. From Youtube and Netflix recommendations, to Facebook feeds and Google searches, these systems are designed to filter content to the predicted preferences of users. Recently, these systems have faced growing criticism with respect to their impact on content diversity, social polarization, and the health of public discourse. In this work we simulate the recommendations given by collaborative filtering algorithms on users in the MovieLens data set. We find that prolonged exposure to system-generated recommendations substantially decreases content diversity, moving individual users into "echo-chambers" characterized by a narrow range of content. Furthermore, our work suggests that once these echo-chambers have been established, it is difficult for an individual user to break out by manipulating solely their own rating vector.
翻訳日:2022-09-28 08:09:41 公開日:2020-11-08
# 非制御交差点でのナビゲーションのための位相不変性によるマルチモーダル軌道予測

Multimodal Trajectory Prediction via Topological Invariance for Navigation at Uncontrolled Intersections ( http://arxiv.org/abs/2011.03894v1 )

ライセンス: Link先を確認
Junha Roh, Christoforos Mavrogiannis, Rishabh Madan, Dieter Fox, Siddhartha S. Srinivasa(参考訳) 我々は,信号機や信号機を持たない道路交差点において,複数の非通信有理エージェント間の分散ナビゲーションに着目した。 このような領域での衝突を避けるには、エージェントが互いの意図を確実に予測し、迅速に反応する能力に依存する。 既存のデータ駆動アプローチのサンプルの複雑さは適用性を制限するが、マルチエージェント軌道予測はNPハードである。 我々の重要な洞察は、交差点の幾何学的構造と、衝突を避けるためのエージェントのインセンティブが、潜在的な行動の空間を減少させ、軌道予測の問題を効果的に緩和することである。 本稿では,交点におけるマルチエージェント軌道の空間を,位相不変性の概念を用いて定式化した多エージェント挙動の異なるクラスを表すモードの集合に分解する。 この形式に基づいて,マルチエージェント交差点シーンにおける高次モードの軌道表現を再構成するデータ駆動型軌道予測機構であるMTPを設計する。 MTPは, 予測精度を78.24%向上させることで, 最先端のマルチモーダル軌道予測ベースライン(MFP)より優れていることを示す。 最後に, MTPにより, CARLAシミュレータ上での様々な交差点シナリオにおける衝突のない, 時間効率なナビゲーションを実現することができることを示す。

We focus on decentralized navigation among multiple non-communicating rational agents at \emph{uncontrolled} intersections, i.e., street intersections without traffic signs or signals. Avoiding collisions in such domains relies on the ability of agents to predict each others' intentions reliably, and react quickly. Multiagent trajectory prediction is NP-hard whereas the sample complexity of existing data-driven approaches limits their applicability. Our key insight is that the geometric structure of the intersection and the incentive of agents to move efficiently and avoid collisions (rationality) reduces the space of likely behaviors, effectively relaxing the problem of trajectory prediction. In this paper, we collapse the space of multiagent trajectories at an intersection into a set of modes representing different classes of multiagent behavior, formalized using a notion of topological invariance. Based on this formalism, we design Multiple Topologies Prediction (MTP), a data-driven trajectory-prediction mechanism that reconstructs trajectory representations of high-likelihood modes in multiagent intersection scenes. We show that MTP outperforms a state-of-the-art multimodal trajectory prediction baseline (MFP) in terms of prediction accuracy by 78.24% on a challenging simulated dataset. Finally, we show that MTP enables our optimization-based planner, MTPnav, to achieve collision-free and time-efficient navigation across a variety of challenging intersection scenarios on the CARLA simulator.
翻訳日:2022-09-28 08:09:26 公開日:2020-11-08
# FairLens:ブラックボックスの臨床診断支援システムの検討

FairLens: Auditing Black-box Clinical Decision Support Systems ( http://arxiv.org/abs/2011.04049v1 )

ライセンス: Link先を確認
Cecilia Panigutti, Alan Perotti, Andr\`e Panisson, Paolo Bajardi and Dino Pedreschi(参考訳) アルゴリズムによる意思決定の広範にわたる適用は、医療などの重要な設定にデプロイされたaiシステムの意図しないバイアスのリスクに懸念を提起している。 バイアスのあるモデルの検出と緩和は、注意と、ループにドメインの専門家を巻き込まなければならない非常にデリケートなタスクです。 本稿では,バイアスの発見と説明のための方法論であるFairLensを紹介する。 本手法は, 臨床意思決定支援システムとして機能する架空の商用ブラックボックスモデルの監査に利用できることを示す。 このシナリオでは、医療施設の専門家はfairlensを自身の履歴データに使用して、臨床判断フローに組み込む前にモデルのバイアスを検出することができる。 FairLensはまず、年齢、民族、性別、保険などの属性に基づいて患者データを階層化し、その後、専門家評価が必要な患者を識別するサブグループにおけるモデルパフォーマンスを評価する。 最後にfairlens氏は、最新の最先端のxai(explainable artificial intelligence)技術に基づいて、患者の臨床履歴のどの要素が選択されたサブグループでモデルエラーを引き起こすかを説明している。 したがって、FairLensでは、モデルの信頼性と、潜在的公正性問題を構成する可能性のあるグループ固有の偏見を調査することができる。

The pervasive application of algorithmic decision-making is raising concerns on the risk of unintended bias in AI systems deployed in critical settings such as healthcare. The detection and mitigation of biased models is a very delicate task which should be tackled with care and involving domain experts in the loop. In this paper we introduce FairLens, a methodology for discovering and explaining biases. We show how our tool can be used to audit a fictional commercial black-box model acting as a clinical decision support system. In this scenario, the healthcare facility experts can use FairLens on their own historical data to discover the model's biases before incorporating it into the clinical decision flow. FairLens first stratifies the available patient data according to attributes such as age, ethnicity, gender and insurance; it then assesses the model performance on such subgroups of patients identifying those in need of expert evaluation. Finally, building on recent state-of-the-art XAI (eXplainable Artificial Intelligence) techniques, FairLens explains which elements in patients' clinical history drive the model error in the selected subgroup. Therefore, FairLens allows experts to investigate whether to trust the model and to spotlight group-specific biases that might constitute potential fairness issues.
翻訳日:2022-09-28 08:09:03 公開日:2020-11-08
# Long Range Arena: 効率的なトランスフォーマーのベンチマーク

Long Range Arena: A Benchmark for Efficient Transformers ( http://arxiv.org/abs/2011.04006v1 )

ライセンス: Link先を確認
Yi Tay, Mostafa Dehghani, Samira Abnar, Yikang Shen, Dara Bahri, Philip Pham, Jinfeng Rao, Liu Yang, Sebastian Ruder, Donald Metzler(参考訳) トランスフォーマーは、主に二次的な自己着脱の複雑さのため、長いシーケンスの長さにあまりスケールしない。 近年では、バニラトランスフォーマーモデルに優れたモデル品質や同等のモデル品質を主張しないよりも、この問題に対処するために、効率的な高速トランスフォーマーの幅広いスペクトルが提案されている。 今のところ、このクラスのモデルを評価する方法については、明確な合意が得られていない。 さらに、幅広いタスクやデータセットに対する一貫性のないベンチマークは、多くのモデル間の相対的モデル品質の評価を困難にしている。 本稿では,長期シナリオ下でのモデル品質の評価に特化して,体系的で統一されたベンチマークであるLRAを提案する。 本ベンチマークでは, テキスト, 自然画像, 合成画像, 数学的表現など, 類似性, 構造的, 視覚空間的推論など, 幅広いデータ型やモダリティを含む, トークン1万~1万6千ドルの一連のタスクからなる。 我々は,新たに提案したベンチマークスイートを用いて,確立された10種類の長域トランスモデル(リフォーマ,リンフォーマ,リニアトランスフォーマ,シンクホーントランスフォーマ,パーフォーマ,シンセサイザー,スパーストランスフォーマ,ロングフォーマ)を体系的に評価した。 LRAは、このクラスの効率的なTransformerモデルの理解を深め、この方向へのさらなる研究を促進し、取り組むべき新たな課題を提示している。 ベンチマークコードはhttps://github.com/google-research/long-range-arenaでリリースします。

Transformers do not scale very well to long sequence lengths largely because of quadratic self-attention complexity. In the recent months, a wide spectrum of efficient, fast Transformers have been proposed to tackle this problem, more often than not claiming superior or comparable model quality to vanilla Transformer models. To this date, there is no well-established consensus on how to evaluate this class of models. Moreover, inconsistent benchmarking on a wide spectrum of tasks and datasets makes it difficult to assess relative model quality amongst many models. This paper proposes a systematic and unified benchmark, LRA, specifically focused on evaluating model quality under long-context scenarios. Our benchmark is a suite of tasks consisting of sequences ranging from $1K$ to $16K$ tokens, encompassing a wide range of data types and modalities such as text, natural, synthetic images, and mathematical expressions requiring similarity, structural, and visual-spatial reasoning. We systematically evaluate ten well-established long-range Transformer models (Reformers, Linformers, Linear Transformers, Sinkhorn Transformers, Performers, Synthesizers, Sparse Transformers, and Longformers) on our newly proposed benchmark suite. LRA paves the way towards better understanding this class of efficient Transformer models, facilitates more research in this direction, and presents new challenging tasks to tackle. Our benchmark code will be released at https://github.com/google-research/long-range-arena.
翻訳日:2022-09-28 08:03:13 公開日:2020-11-08
# 感情テキスト生成制御のための言語モデルの適用

Adapting a Language Model for Controlled Affective Text Generation ( http://arxiv.org/abs/2011.04000v1 )

ライセンス: Link先を確認
Ishika Singh and Ahsan Barkati and Tushar Goswamy and Ashutosh Modi(参考訳) 人間の言語は情報を伝えるだけでなく、内的感情や精神状態を表現するためにも使われる。 本研究では,最先端言語生成モデルを用いて感情的(感情的)テキストを生成する。 感情の強さが増すにつれて文法的正確性を失うことなく、感情駆動および話題中心の文を生成できるモデルを提案する。 本稿では,gpt-2のような確率的テキスト生成モデルに先立って感情を組み込むことを提案する。 このモデルは、ユーザが生成したテキストのトピックだけでなく、感情のカテゴリや強度を制御する柔軟性を提供する。 これまでの微粒な感情をモデル化する試みは、極端な強度で文法的正しさに反するが、われわれのモデルはこれに耐性があり、あらゆる強度で堅牢な結果をもたらす。 我々は、モデルの性能をテストするために、自動評価と人間実験を行い、結果と他のモデルとの詳細な比較を提供する。 全ての評価において、我々のモデルは既存の感情テキスト生成モデルよりも優れている。

Human use language not just to convey information but also to express their inner feelings and mental states. In this work, we adapt the state-of-the-art language generation models to generate affective (emotional) text. We posit a model capable of generating affect-driven and topic-focused sentences without losing grammatical correctness as the affect intensity increases. We propose to incorporate emotion as prior for the probabilistic state-of-the-art text generation model such as GPT-2. The model gives a user the flexibility to control the category and intensity of emotion as well as the topic of the generated text. Previous attempts at modelling fine-grained emotions fall out on grammatical correctness at extreme intensities, but our model is resilient to this and delivers robust results at all intensities. We conduct automated evaluations and human studies to test the performance of our model and provide a detailed comparison of the results with other models. In all evaluations, our model outperforms existing affective text generation models.
翻訳日:2022-09-28 08:02:24 公開日:2020-11-08
# Deep ReLU Networksのブラックボックスを解き放つ:解釈可能性、診断、単純化

Unwrapping The Black Box of Deep ReLU Networks: Interpretability, Diagnostics, and Simplification ( http://arxiv.org/abs/2011.04041v1 )

ライセンス: Link先を確認
Agus Sudjianto, William Knauth, Rahul Singh, Zebin Yang, Aijun Zhang(参考訳) ディープニューラルネットワーク(dnn)は、強力な予測力を持つ複雑なパターンを学習することに成功したが、透明性と解釈可能性のレベルを十分に持たない「ブラックボックス」モデルと見なされることが多い。 DNNを厳密な数学と実践的なツールで、特にミッションクリティカルな用途に使用する場合には、デミスティフィケーションすることが重要である。 本稿では, 局所線形表現を用いて深部ReLUネットワークのブラックボックスを解き放つことを目的として, アクティベーションパターンを利用して, 複雑なネットワークを等価な局所線形モデル(LLM)に分解する。 我々は,事前学習した深部ReLUネットワークの解釈可能性,診断,簡易化のためのLCMベースの便利なツールキットを開発した。 本稿では,局所的な線形プロファイルプロットと解釈と診断のための可視化手法,およびネットワーク単純化のための効果的なマージ戦略を提案する。 提案手法はシミュレーション例,ベンチマークデータセット,住宅ローン信用リスク評価における実ケーススタディによって実証された。

The deep neural networks (DNNs) have achieved great success in learning complex patterns with strong predictive power, but they are often thought of as "black box" models without a sufficient level of transparency and interpretability. It is important to demystify the DNNs with rigorous mathematics and practical tools, especially when they are used for mission-critical applications. This paper aims to unwrap the black box of deep ReLU networks through local linear representation, which utilizes the activation pattern and disentangles the complex network into an equivalent set of local linear models (LLMs). We develop a convenient LLM-based toolkit for interpretability, diagnostics, and simplification of a pre-trained deep ReLU network. We propose the local linear profile plot and other visualization methods for interpretation and diagnostics, and an effective merging strategy for network simplification. The proposed methods are demonstrated by simulation examples, benchmark datasets, and a real case study in home lending credit risk assessment.
翻訳日:2022-09-28 08:02:09 公開日:2020-11-08
# エンド・ツー・エンド微分可能自然論理モデリングの探索

Exploring End-to-End Differentiable Natural Logic Modeling ( http://arxiv.org/abs/2011.04044v1 )

ライセンス: Link先を確認
Yufei Feng, Zi'ou Zheng, Quan Liu, Michael Greenspan, Xiaodan Zhu(参考訳) ニューラルネットワークと自然言語を融合したエンドツーエンドの学習可能な微分モデルについて検討し、サブシンボリックベクトル表現とニューラルコンポーネントを導入しながら、自然言語の論理形式に基づく推論のバックボーンを維持することを目的とした。 提案モデルでは,モジュールネットワークを用いて自然言語操作をモデル化し,メモリコンポーネントで拡張してコンテキスト情報をモデル化する。 実験により,提案フレームワークは,単調性に基づく推論の帰納バイアスを組み込まないベースラインニューラルネットワークモデルと比較して,効果的に単調性に基づく推論をモデル化できることが示された。 提案手法は,上向きから下向きの推論にロバストであることが判明した。 本研究は,提案モデルのアグリゲーション性能に関するさらなる解析を行い,中間アグリゲーション性能の向上に寄与するサブコンポーネントの有効性を示す。

We explore end-to-end trained differentiable models that integrate natural logic with neural networks, aiming to keep the backbone of natural language reasoning based on the natural logic formalism while introducing subsymbolic vector representations and neural components. The proposed model adapts module networks to model natural logic operations, which is enhanced with a memory component to model contextual information. Experiments show that the proposed framework can effectively model monotonicity-based reasoning, compared to the baseline neural network models without built-in inductive bias for monotonicity-based reasoning. Our proposed model shows to be robust when transferred from upward to downward inference. We perform further analyses on the performance of the proposed model on aggregation, showing the effectiveness of the proposed subcomponents on helping achieve better intermediate aggregation performance.
翻訳日:2022-09-28 08:01:51 公開日:2020-11-08
# 低スコーリング範囲におけるメトリクスの認識:要約評価基準の再検討

Metrics also Disagree in the Low Scoring Range: Revisiting Summarization Evaluation Metrics ( http://arxiv.org/abs/2011.04096v1 )

ライセンス: Link先を確認
Manik Bhandari, Pranav Gour, Atabak Ashfaq, Pengfei Liu(参考訳) テキスト要約では,人的判断を伴わない自動測定器の有効性評価が最近普及している。 ある例では、高スコアの要約をランク付けする場合、自動メトリクスは強く一致しない、と結論付けている。 本稿では,これらの実験を振り返って,測定値が狭いスコア範囲の要約ランキングに不一致であることに起因していることを示す。 これは、サマリーが狭いスコア範囲で互いに類似しており、したがってランク付けが難しいためかもしれないと仮定する。 要約のスコアリング範囲の幅とは別に,メトリクス間の合意に影響を及ぼす3つの特性(要約の容易さ,抽象性,カバレッジ)を分析した。 再現可能な研究を促進するため、分析コードとデータを公開しています。

In text summarization, evaluating the efficacy of automatic metrics without human judgments has become recently popular. One exemplar work concludes that automatic metrics strongly disagree when ranking high-scoring summaries. In this paper, we revisit their experiments and find that their observations stem from the fact that metrics disagree in ranking summaries from any narrow scoring range. We hypothesize that this may be because summaries are similar to each other in a narrow scoring range and are thus, difficult to rank. Apart from the width of the scoring range of summaries, we analyze three other properties that impact inter-metric agreement - Ease of Summarization, Abstractiveness, and Coverage. To encourage reproducible research, we make all our analysis code and data publicly available.
翻訳日:2022-09-28 08:01:36 公開日:2020-11-08
# 階層型言語認識におけるリカレントニューラルネットワークの実用性について

On the Practical Ability of Recurrent Neural Networks to Recognize Hierarchical Languages ( http://arxiv.org/abs/2011.03965v1 )

ライセンス: Link先を確認
Satwik Bhattamishra, Kabir Ahuja, Navin Goyal(参考訳) 繰り返しモデルはNLPタスクに有効であるが、文脈自由言語(CFL)の性能は非常に弱いことが判明した。 cflが自然言語における階層構造のような重要な現象を捉えていると仮定すると、この性能の不一致は説明を求める。 我々は,特に重要でよく研究されているCFLのクラスであるDyck-n言語における反復モデルの性能について検討する。 リカレントモデルは、トレーニング文字列とテスト文字列の長さが同じ範囲である場合、ほぼ完全に一般化するが、テスト文字列が長い場合、性能は低下する。 同時に、繰り返しモデルが任意の長さのディック語を有限精度で認識するのに十分な表現力を持つことを観測した。 そこで我々は,dyck 言語から生成したサンプルから得られたモデルについて有界な深さで評価し,より高い長さまで一般化できることを見出した。 自然言語データセットは境界深さの依存関係をネストしているため、Dyck言語での一般化性能の低さを示す以前の研究にもかかわらず、自然言語データにおける階層的依存関係のモデリングでうまく機能する理由を説明するのに役立つかもしれない。 結果を裏付けるために調査研究を行い,トランスフォーマーとの比較を行った。

While recurrent models have been effective in NLP tasks, their performance on context-free languages (CFLs) has been found to be quite weak. Given that CFLs are believed to capture important phenomena such as hierarchical structure in natural languages, this discrepancy in performance calls for an explanation. We study the performance of recurrent models on Dyck-n languages, a particularly important and well-studied class of CFLs. We find that while recurrent models generalize nearly perfectly if the lengths of the training and test strings are from the same range, they perform poorly if the test strings are longer. At the same time, we observe that recurrent models are expressive enough to recognize Dyck words of arbitrary lengths in finite precision if their depths are bounded. Hence, we evaluate our models on samples generated from Dyck languages with bounded depth and find that they are indeed able to generalize to much higher lengths. Since natural language datasets have nested dependencies of bounded depth, this may help explain why they perform well in modeling hierarchical dependencies in natural language data despite prior works indicating poor generalization performance on Dyck languages. We perform probing studies to support our results and provide comparisons with Transformers.
翻訳日:2022-09-28 08:01:23 公開日:2020-11-08
# 物体骨格検出のための適応線形スパンネットワーク

Adaptive Linear Span Network for Object Skeleton Detection ( http://arxiv.org/abs/2011.03972v1 )

ライセンス: Link先を確認
Chang Liu and Yunjie Tian and Jianbin Jiao and Qixiang Ye(参考訳) 従来のオブジェクトスケルトン検出ネットワークは通常、手作りである。 本稿では,ニューラルネットワーク探索(NAS)によって駆動される適応線形スパンネットワーク(AdaLSN)を提案する。 AdaLSN は線形スパンの理論で定式化されており、これは多スケールの深い特徴融合の最も初期の説明の1つである。 AdaLSNは、単位レベルまたはピラミッドレベルの特徴を用いて、既存の多くの検索空間を超えた混合単位ピラミド探索空間を定義することで実現され、混合空間では、ユニットレベルの操作とピラミッドレベルの接続を協調的に最適化し、適応的特徴空間拡張を行う。 adalsnは最先端に比べて高い精度とレイテンシのトレードオフを達成することで、その汎用性を実証する。 また、エッジ検出や道路抽出など、画像対マスクタスクへの一般的な適用性も示す。 コードは \href{https://github.com/sunsmarterjie/SDL-Skeleton}{\color{magenta}github.com/sunsmarterjie/SDL-Skeleton} で入手できる。

Conventional networks for object skeleton detection are usually hand-crafted. Although effective, they require intensive priori knowledge to configure representative features for objects in different scale granularity.In this paper, we propose adaptive linear span network (AdaLSN), driven by neural architecture search (NAS), to automatically configure and integrate scale-aware features for object skeleton detection. AdaLSN is formulated with the theory of linear span, which provides one of the earliest explanations for multi-scale deep feature fusion. AdaLSN is materialized by defining a mixed unit-pyramid search space, which goes beyond many existing search spaces using unit-level or pyramid-level features.Within the mixed space, we apply genetic architecture search to jointly optimize unit-level operations and pyramid-level connections for adaptive feature space expansion. AdaLSN substantiates its versatility by achieving significantly higher accuracy and latency trade-off compared with state-of-the-arts. It also demonstrates general applicability to image-to-mask tasks such as edge detection and road extraction. Code is available at \href{https://github.com/sunsmarterjie/SDL-Skeleton}{\color{magenta}github.com/sunsmarterjie/SDL-Skeleton}.
翻訳日:2022-09-28 08:00:38 公開日:2020-11-08