このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200529となっている論文です。

PDF登録状況(公開日: 20200529)

TitleAuthorsAbstract論文公表日・翻訳日
# 分子アライメントエコーによるプローブ衝突誘起回転速度変化

Molecular alignment echoes probe collision-induced rotational-speed changes ( http://arxiv.org/abs/2002.01212v3 )

ライセンス: Link先を確認
J.-M. Hartmann, J. Ma, T. Delahaye, F. Billard, E. Hertz, J. Wu, B. Lavorel, C. Boulet, O. Faucher(参考訳) また,N2O-He混合ガス中で発生したアライメントエコーの圧力による減衰が,遅延の異なる2つのレーザパルスによって,衝突誘起回転速度の変化に関する詳細な情報をもたらすことを示した。 測定と計算により、衝突はエコーの振幅を遅くなるとより効率的に減少させることが示された。 第一パルスによって誘起される古典的回転相空間のフィラメントと、時間とともにフィラメントの漸進的狭化によって、この挙動を定量的に説明する。 エコー減衰の変動は、分子の回転速度を様々な量で変化させる衝突の能力を反映し、分子間力によって引き起こされる散逸モデルの洗練されたテストを可能にする。

We show that the decays with pressure of the alignment echoes induced in N2O-He gas mixtures by two laser pulses with various delays bring detailed information on collision-induced changes of the rotational speed. Measurements and calculations demonstrate that collisions reduce the echo amplitude all the more efficiently when the echo appears late. We quantitatively explain this behavior by the filamentation of the classical rotational phase space induced by the first pulse and the progressive narrowing of the filaments with time. The variation of the echo decay thus reflects the ability of collisions to change the molecules' rotational speed by various amounts, enabling refined tests of models for the dissipation induced by intermolecular forces.
翻訳日:2023-06-04 18:43:54 公開日:2020-05-29
# 複雑性第一法則の諸相

Aspects of The First Law of Complexity ( http://arxiv.org/abs/2002.05779v2 )

ライセンス: Link先を確認
Alice Bernamonti, Federico Galli, Juan Hernandez, Robert C. Myers, Shan-Ming Ruan, Joan Sim\'on(参考訳) arxiv:1903.04511で提案された複雑性の最初の法則、すなわち、対象状態が摂動した場合の複雑性のばらつきについて、より詳細に検討する。 ニールセンの量子回路複雑性に対する幾何学的アプローチに基づき、変動は最適回路の終端にのみ依存することがわかった。 最初の法則を適用して、ホログラフィック複雑性の基礎となる量子回路と複雑性モデルに関する新たな知見を得る。 特に,自由スカラー場のコヒーレントな状態励起を伴うAdS真空の摂動における複雑性=作用と複雑性=体積予想のホログラフィック複雑性の変動について検討する。 また,自由スカラー場理論に対する同じ励起による回路複雑性の変動を固定adsの背景から検討する。 この場合、本研究は、複雑性変動の時間依存性を適切に含むようにガウスコヒーレント状態の既存の処理を拡張する。 ホログラフィックとQFTの結果の類似点と相違点についてコメントする。

We investigate the first law of complexity proposed in arXiv:1903.04511, i.e., the variation of complexity when the target state is perturbed, in more detail. Based on Nielsen's geometric approach to quantum circuit complexity, we find the variation only depends on the end of the optimal circuit. We apply the first law to gain new insights into the quantum circuits and complexity models underlying holographic complexity. In particular, we examine the variation of the holographic complexity for both the complexity=action and complexity=volume conjectures in perturbing the AdS vacuum with coherent state excitations of a free scalar field. We also examine the variations of circuit complexity produced by the same excitations for the free scalar field theory in a fixed AdS background. In this case, our work extends the existing treatment of Gaussian coherent states to properly include the time dependence of the complexity variation. We comment on the similarities and differences of the holographic and QFT results.
翻訳日:2023-06-03 19:01:05 公開日:2020-05-29
# 赤外線における未検出光子による顕微鏡観察

Microscopy with undetected photons in the mid-infrared ( http://arxiv.org/abs/2002.05960v2 )

ライセンス: Link先を確認
Inna Kviatkovsky, Helen M. Chrzanowski, Ellen G. Avery, Hendrik Bartolomaeus, and Sven Ramelow(参考訳) ユニークな(バイオ)化学的特異性を持つため、中赤外光による顕微鏡は幅広いバイオメディカルおよび工業用途に非常に有望である。 しかし、主な制限は検出であり、現在のミッドエア検出技術は、しばしば劣った技術能力と禁止コストを満たしている。 これにより、検出範囲を可視領域にシフトさせるアプローチが生まれ、シリコンベースのカメラ技術が圧倒的に優れている。 そこで本研究では, エンタングル光を用いた非線形干渉法が, 標準cmosカメラによる近赤外検出のみを必要とする中赤外顕微鏡の強力なツールとなることを示す。 本実装では,3.4-4.3umの広波長域を超越した高強度撮像を行い,650個の分解素子を含む画像に対して空間分解能35umを示した。 さらに,本手法は生体組織試料の顕微鏡像を中赤外域で取得し,目的に適合することを示した。 これらの結果は、生命科学における量子イメージング技術の可能性に対する新たな視点を開く。

Owing to its capacity for unique (bio)-chemical specificity, microscopy withmid-IR illumination holds tremendous promise for a wide range of biomedical and industrial applications. The primary limitation, however, remains detection; with current mid-IR detection technology often marrying inferior technical capabilities with prohibitive costs. This has lead to approaches that shift detection towavelengths into the visible regime, where vastly superior silicon-based cameratechnology is available. Here, we experimentally show how nonlinear interferometry with entangled light can provide a powerful tool for mid-IR microscopy, while only requiring near-infrared detection with a standard CMOS camera. In this proof-of-principle implementation, we demonstrate intensity imaging overa broad wavelength range covering 3.4-4.3um and demonstrate a spatial resolution of 35um for images containing 650 resolved elements. Moreover, we demonstrate our technique is fit for purpose, acquiring microscopic images of biological tissue samples in the mid-IR. These results open a new perspective for potential relevance of quantum imaging techniques in the life sciences.
翻訳日:2023-06-03 17:04:07 公開日:2020-05-29
# シンプレクティッククラスにおける非エルミートハミルトニアンの非ブロッホバンド理論

Non-Bloch band theory of non-Hermitian Hamiltonians in the symplectic class ( http://arxiv.org/abs/2003.07597v2 )

ライセンス: Link先を確認
Kohei Kawabata, Nobuyuki Okuma, Masatoshi Sato(参考訳) 非エルミートハミルトニアンは一般に境界条件に敏感であり、開境界条件下でのスペクトルと波動関数は周期境界条件に対するブロッホバンド理論によって必ずしも予測されない。 そのような非ブロッホ特徴を解明するために、最近の研究は任意の境界条件の下でも機能する非ブロッホバンド理論を開発した。 ここで、標準的非ブロッホバンド理論はシンプレクティッククラスに分解され、非エルミート・ハミルトニアンが相互性のためにクラマーの退化を示すことが示されている。 代わりに、シンプレクティッククラスに対する修正された非ブロッホバンド理論は、図示的な例と同様に一般的な方法で展開される。 この非標準非ブロッホバンド理論は、相互性によって保護される非エルミート的皮膚効果を成す。

Non-Hermitian Hamiltonians are generally sensitive to boundary conditions, and their spectra and wave functions under open boundary conditions are not necessarily predicted by the Bloch band theory for periodic boundary conditions. To elucidate such a non-Bloch feature, recent works have developed a non-Bloch band theory that works even under arbitrary boundary conditions. Here, it is demonstrated that the standard non-Bloch band theory breaks down in the symplectic class, in which non-Hermitian Hamiltonians exhibit Kramers degeneracy because of reciprocity. Instead, a modified non-Bloch band theory for the symplectic class is developed in a general manner, as well as illustrative examples. This nonstandard non-Bloch band theory underlies the $\mathbb{Z}_{2}$ non-Hermitian skin effect protected by reciprocity.
翻訳日:2023-05-28 22:19:47 公開日:2020-05-29
# 相互作用スピン系における単極場テクスチャ

Monopole Field Textures in Interacting Spin Systems ( http://arxiv.org/abs/2003.08714v2 )

ライセンス: Link先を確認
Andreas Eriksson, Erik Sj\"oqvist(参考訳) 磁気モノポールは、スピンアイスから半金属中のワイル点まで、様々な物理的設定において創発的な構造として現れる。 ここでは、球面対称性が破れたスピン-$\frac{1}{2}$粒子の相互作用系において、ゆっくりと変化する外部磁場のパラメータ空間における合成(ベリー)単極子の分布が示される。 これらのモノポールは、外部体が 0 でない点で見つかる。 スピンスピン相互作用は、マグニチュードが最小の許容値$\frac{1}{2}$になるまで、合成局所電荷を分割するメカニズムを提供する。 ある状態に対して、非零ネット電荷はパラメータ空間の任意に大きな有限領域で生成することができる。 モノポール場テクスチャはスピン-スピン相互作用の存在における非モノポーラ寄与を含む。

Magnetic monopoles can appear as emergent structures in a wide range of physical settings, ranging from spin ice to Weyl points in semimetals. Here, a distribution of synthetic (Berry) monopoles in parameter space of a slowly changing external magnetic field is demonstrated in a system of interacting spin-$\frac{1}{2}$ particles with broken spherical symmetry. These monopoles can be found at points where the external field is nonzero. The spin-spin interaction provides a mechanism for splitting the synthetic local magnetic charges until their magnitude reach the smallest allowed value $\frac{1}{2}$. For certain states, a nonzero net charge can be created in an arbitrarily large finite region of parameter space. The monopole field textures contain non-monopolar contributions in the presence of spin-spin interaction.
翻訳日:2023-05-28 17:48:55 公開日:2020-05-29
# 計算可能契約による商業契約の転換

Transforming Commercial Contracts through Computable Contracting ( http://arxiv.org/abs/2003.10400v2 )

ライセンス: Link先を確認
John Cummins and Christopher Clack(参考訳) 契約は商業と社会において不可欠な基本的要素であり、複数の当事者間の合意を明確にする役割を果たしている。 デジタル技術は契約に関する多くの活動を自動化するのに役立っているが、契約そのものは、主に非構造化の自然言語テキストの形で続けられている。 これにより、生産性と自動化の改善、新しいビジネスモデルの出現の範囲が制限されます。 そこで本稿では,人間とコンピュータの両方が理解可能なオブジェクトとして計算可能契約の概念を考察し,計算可能契約を現実にするための様々な技術とアプローチを統合する枠組みを提示する。

Contracts are an essential and fundamental component of commerce and society, serving to clarify agreement between multiple parties. While digital technologies have helped to automate many activities associated with contracting, the contracts themselves continue, in the main, to be in the form of unstructured, natural-language text. This limits the scope for improvements in productivity and automation, as well as the emergence of new business models. To this end, this paper examines the concept of computable contracts as objects that are understandable by both humans and computers, and goes on to present a framework that unifies a range of technologies and approaches that collectively will help to make computable contracting a reality.
翻訳日:2023-05-28 07:36:41 公開日:2020-05-29
# BitChuteとは何か? YouTubeの「言論の自由」を特徴付ける

What is BitChute? Characterizing the "Free Speech" Alternative to YouTube ( http://arxiv.org/abs/2004.01984v3 )

ライセンス: Link先を確認
Milo Trujillo, Maur\'icio Gruppi, Cody Buntain, Benjamin D. Horne(参考訳) 本稿では,ソーシャルビデオホスティングプラットフォームであるbitchuteのコンテンツと談話の特徴について述べる。 2017年にYouTubeの代替サービスとしてローンチされたBitChuteは、Gab、Voat、Minds、そして4chanなどの低コンテンツモデレーションプラットフォームのエコシステムに加わる。 ユニークなことに、BitChuteはビデオコンテンツにフォーカスした最初の代替プラットフォームであり、人気が高まっている。 分析の結果,プラットフォームの重要な特徴がいくつか明らかになった。 一握りのチャンネルしかエンゲージメントを受け付けておらず、これらのチャンネルのほとんどが陰謀やヘイトスピーチを含んでいる。 プラットフォーム全体のヘイトスピーチの割合は高く、その多くが反ユダヤ主義的であり、特に問題となっている。 以上の結果から,BitChuteはGabよりもヘイトスピーチの頻度が高いが,4chan以下であることが示唆された。 最後に、BitChuteコンテンツ制作者が他のプラットフォームから禁止されているのに対して、主流のソーシャルメディアプラットフォーム、特にYouTubeではプロフィールが維持されている。 本稿は,bitchuteに関するコンテンツと談話の初見を提供し,低コンテンツモデレーションプラットフォームに関する今後の研究のための基盤を提供する。

In this paper, we characterize the content and discourse on BitChute, a social video-hosting platform. Launched in 2017 as an alternative to YouTube, BitChute joins an ecosystem of alternative, low content moderation platforms, including Gab, Voat, Minds, and 4chan. Uniquely, BitChute is the first of these alternative platforms to focus on video content and is growing in popularity. Our analysis reveals several key characteristics of the platform. We find that only a handful of channels receive any engagement, and almost all of those channels contain conspiracies or hate speech. This high rate of hate speech on the platform as a whole, much of which is anti-Semitic, is particularly concerning. Our results suggest that BitChute has a higher rate of hate speech than Gab but less than 4chan. Lastly, we find that while some BitChute content producers have been banned from other platforms, many maintain profiles on mainstream social media platforms, particularly YouTube. This paper contributes a first look at the content and discourse on BitChute and provides a building block for future research on low content moderation platforms.
翻訳日:2023-05-26 11:02:13 公開日:2020-05-29
# 相互作用する原子鎖の静的キンク

Static kinks in chains of interacting atoms ( http://arxiv.org/abs/2004.03823v3 )

ライセンス: Link先を確認
Haggai Landa, Cecilia Cormick, Giovanna Morigi(参考訳) 理論上は、反発力-負ポテンシャルを介して相互作用し周期格子に閉じ込められた粒子の連鎖における位相ソリトン方程式を解析する。 離散モデルから始めると、勾配展開を行い、電力法指数$n \ge 1$の連続極限におけるキンク方程式を得る。 パワーロー相互作用は正弦方程式を修正し、第2導関数(キンク幅)を乗じる係数の再スケーリングと追加の積分項を与える。 積分項はキンクの局所的性質には影響しないが、漸近状態における挙動を支配していると論じる。 中心のキンクの挙動はシン=ゴルドン方程式によって支配され、その幅はパワーロー指数とともに増加する傾向がある。 相互作用がクーロン反発である場合、特に、キンク幅は鎖の大きさに対数的に依存する。 我々は、適切な熱力学極限を定義し、その結果を無限鎖に対する既存の研究と比較する。 我々の形式主義は、有限サイズの効果を体系的に考慮し、またイオントラップの曲率のようなゆっくりと変化する外部ポテンシャルを考慮できる。

We theoretically analyse the equation of topological solitons in a chain of particles interacting via a repulsive power-law potential and confined by a periodic lattice. Starting from the discrete model, we perform a gradient expansion and obtain the kink equation in the continuum limit for a power law exponent $n \ge 1$. The power-law interaction modifies the sine-Gordon equation, giving rise to a rescaling of the coefficient multiplying the second derivative (the kink width) and to an additional integral term. We argue that the integral term does not affect the local properties of the kink, but it governs the behaviour at the asymptotics. The kink behaviour at the center is dominated by a sine-Gordon equation and its width tends to increase with the power law exponent. When the interaction is the Coulomb repulsion, in particular, the kink width depends logarithmically on the chain size. We define an appropriate thermodynamic limit and compare our results with existing studies performed for infinite chains. Our formalism allows one to systematically take into account the finite-size effects and also slowly varying external potentials, such as for instance the curvature in an ion trap.
翻訳日:2023-05-25 11:51:31 公開日:2020-05-29
# オープン教育資源の品質予測 : メタデータに基づくアプローチ

Quality Prediction of Open Educational Resources A Metadata-based Approach ( http://arxiv.org/abs/2005.10542v3 )

ライセンス: Link先を確認
Mohammadreza Tavakoli, Mirette Elias, G\'abor Kismih\'ok, S\"oren Auer(参考訳) 近年、オンライン学習環境は数百万のオープン教育資源(OER)を蓄積している。 しかし、学習者にとって、関連性があり高品質なOERを見つけることは、複雑で時間を要する活動である。 さらに、メタデータはレコメンデーションや検索といった高品質なサービスを提供する上で重要な役割を担います。 メタデータは、oersが継続的に増えていることから、手作業による品質管理がますます難しくなっているため、oerの品質管理の自動化にも利用できる。 本研究では,8,887 OERのメタデータを収集し,探索データ解析を行い,品質管理がメタデータの品質に与える影響を観察した。 その後,oerメタデータスコアリングモデルを提案し,oerの品質を予測するメタデータベースの予測モデルを構築する。 データとモデルに基づいて、F1スコア94.6%の高品質なOERを検出できた。

In the recent decade, online learning environments have accumulated millions of Open Educational Resources (OERs). However, for learners, finding relevant and high quality OERs is a complicated and time-consuming activity. Furthermore, metadata play a key role in offering high quality services such as recommendation and search. Metadata can also be used for automatic OER quality control as, in the light of the continuously increasing number of OERs, manual quality control is getting more and more difficult. In this work, we collected the metadata of 8,887 OERs to perform an exploratory data analysis to observe the effect of quality control on metadata quality. Subsequently, we propose an OER metadata scoring model, and build a metadata-based prediction model to anticipate the quality of OERs. Based on our data and model, we were able to detect high-quality OERs with the F1 score of 94.6%.
翻訳日:2023-05-19 03:50:04 公開日:2020-05-29
# グラフェンクーパー対スプリッタの熱電電流

Thermoelectric current in a graphene Cooper pair splitter ( http://arxiv.org/abs/2005.13286v2 )

ライセンス: Link先を確認
Z. B. Tan, A. Laitinen, N. S. Kirsanov, A. Galda, M. Haque, A. Savin, D. S. Golubev, V. M. Vinokur, G. B. Lesovik, P. J. Hakonen(参考訳) 熱勾配から発電する熱電効果と逆もまた、多くの一般的な応用に現れる。 近年,非局所的クーパー対分割 (CPS) と弾性共振 (EC) のハイブリッド金属-超伝導-正規金属 (NSN) 構造における熱電率の当初の展望が予測された。 ここでは,超伝導体に接続された2つの量子ドットからなるグラフェン系CPSデバイスにおいて,非局所ゼーベック効果の存在を実験的に実証し,その観測を理論的に検証する。 この非局所ゼーベック効果は、絡み合った電子を生成するための効率的なツールを提供する。

Thermoelectric effect generating electricity from thermal gradient and vice versa appears in numerous generic applications. Recently, an original prospect of thermoelectricity arising from the nonlocal Cooper pair splitting (CPS) and the elastic co-tunneling (EC) in hybrid normal metal-superconductor-normal metal (NSN) structures was foreseen. Here we demonstrate experimentally the existence of non-local Seebeck effect in a graphene-based CPS device comprising two quantum dots connected to an aluminum superconductor and theoretically validate the observations. This non-local Seebeck effect offers an efficient tool for producing entangled electrons.
翻訳日:2023-05-18 05:11:57 公開日:2020-05-29
# 多成分ガウスの絡み合い

Multipartite Gaussian Entanglement of Formation ( http://arxiv.org/abs/2005.13733v2 )

ライセンス: Link先を確認
Sho Onoe, Spyros Tserkis, Austin P. Lund, and Timothy C. Ralph(参考訳) 形成の絡み合いは二成分量子状態の絡み合いを定量化する基本的な尺度である。 この尺度は、最近、$\alpha$-entanglement of formation という名でマルチパーティ状態に拡張されている。 本研究は,ガウス版の形成の絡み合いに対する類似の多成分拡張に従い,多成分ガウス状態の最も細かい分割に着目し,この測度が3モードガウス状態に対して完全に加法的かつ計算可能であることを示す。

Entanglement of formation is a fundamental measure that quantifies the entanglement of bipartite quantum states. This measure has recently been extended into multipartite states taking the name $\alpha$-entanglement of formation. In this work, we follow an analogous multipartite extension for the Gaussian version of entanglement of formation, and focusing on the the finest partition of a multipartite Gaussian state we show this measure is fully additive and computable for 3-mode Gaussian states.
翻訳日:2023-05-18 03:06:55 公開日:2020-05-29
# 量子化重力場へのカップリングによる巨大重ね合わせのデコヒーレンス

Decoherence of massive superpositions induced by coupling to a quantized gravitational field ( http://arxiv.org/abs/2005.14596v1 )

ライセンス: Link先を確認
Vlatko Vedral(参考訳) 線形結合状態における巨大物体の空間重ね合わせの量子重力によるデコヒーレンスに導かれる簡単な計算を提案する。 この計算のポイントは、重力によって引き起こされる崩壊が、系(ここでは巨大な物体)と環境(この場合は重力であるが、電磁場または他の磁場)の絡み合いに起因する他の崩壊と同じ起源であることを示すことである。 そして、ある場合には、大質量の物質波干渉(定量化)が重力場とのカップリングによって防止されることを結論付けるときに注意する必要があることを指摘した。 古典的なデファシグによるデコヒーレンスと、量子重ね合わせの真の崩壊(そのような過程が存在する場合)によるデコヒーレンスを実験的に区別する方法について議論する。

We present a simple calculation leading to the quantum gravitationally-induced decoherence of a spatial superposition of a massive object in the linear coupling regime. The point of this calculation is to illustrate that the gravitationally-induced collapse could be of the same origin as any other collapse, i.e. due to the entanglement between the system (here a massive object) and its environment (in this case gravity, but it could well be the electromagnetic or any other field). We then point out that, in some cases, one has to be careful when concluding that matter-wave interference of large masses (to be quantified) would be prevented by their coupling to the gravitational field. We discuss how to experimentally discriminate between decoherence due to entanglement, decoherence due to classical dephasig as well as a genuine collapse of quantum superpositions (if such a process exists at all).
翻訳日:2023-05-18 00:52:40 公開日:2020-05-29
# マジック部分空間からのオープン量子系の純度速度限界

Purity Speed Limit of Open Quantum Systems from Magic Subspaces ( http://arxiv.org/abs/2005.14594v1 )

ライセンス: Link先を確認
A. A. Diaz V., V. Martikyan, S. J. Glaser and D. Sugny(参考訳) 我々は、リンドブラッド方程式が支配する散逸的Nレベル量子系の制御のためのマジック部分空間の概念を導入する。 与えられた純度に対して、これらの部分空間は、純度の変化率が最大または最小となる密度行列の集合として定義される。 同じ純度を持つ2つの密度演算子を非常に短時間で接続できるように、架空の制御場をシステムに追加することにより、マジック部分空間は緩和速度にのみ依存する純粋度速度制限を導出できることを示す。 2レベル散逸量子系の場合、確立された境界に対するこの極限の優越性とその厳密性を強調する。 本研究の枠組みでは,速度限界と対応する時間-最適解との関係について論じる。 明示的な例は、2レベルと3レベルの量子系で記述される。

We introduce the concept of Magic Subspaces for the control of dissipative N- level quantum systems whose dynamics are governed by Lindblad equation. For a given purity, these subspaces can be defined as the set of density matrices for which the rate of purity change is maximum or minimum. Adding fictitious control fields to the system so that two density operators with the same purity can be connected in a very short time, we show that magic subspaces allow to derive a purity speed limit, which only depends on the relaxation rates. We emphasize the superiority of this limit with respect to established bounds and its tightness in the case of a two-level dissipative quantum system. The link between the speed limit and the corresponding time-optimal solution is discussed in the framework of this study. Explicit examples are described for two- and three- level quantum systems.
翻訳日:2023-05-18 00:52:24 公開日:2020-05-29
# ソーシャルシステムにおけるネットワークベースのランキング:3つの課題

Network-based ranking in social systems: three challenges ( http://arxiv.org/abs/2005.14564v1 )

ライセンス: Link先を確認
Manuel S. Mariani, Linyuan L\"u(参考訳) ランキングアルゴリズムは、ますますデジタル化されつつある社会に浸透し、レコメンデーションシステム、検索エンジン、インフルエンサーマーケティングプラクティスなど、現実世界の重要なアプリケーションがある。 ネットワーク科学の観点からは、ネットワークベースのランキングアルゴリズムは、複雑なシステムの安定性とダイナミクスのための重要なノードの同定に関する根本的な問題を解決する。 これらのアルゴリズムのユビキタスで成功した応用にもかかわらず、我々のパフォーマンスとその実世界の問題への応用に対する理解は、3つの基本的な課題に直面している: (i) ランキングは様々な要因によって偏っているかもしれない; (2) 効果は特定の問題に限定されるかもしれない; (3) ランキングによって引き起こされるエージェントの決定は、潜在的に有害なフィードバックメカニズムと不健全なシステム的結果をもたらすかもしれない。 ネットワーク科学やエージェントベースのモデリングに根ざした手法は、これらの課題を理解し克服するのに役立ちます。

Ranking algorithms are pervasive in our increasingly digitized societies, with important real-world applications including recommender systems, search engines, and influencer marketing practices. From a network science perspective, network-based ranking algorithms solve fundamental problems related to the identification of vital nodes for the stability and dynamics of a complex system. Despite the ubiquitous and successful applications of these algorithms, we argue that our understanding of their performance and their applications to real-world problems face three fundamental challenges: (i) Rankings might be biased by various factors; (2) their effectiveness might be limited to specific problems; and (3) agents' decisions driven by rankings might result in potentially vicious feedback mechanisms and unhealthy systemic consequences. Methods rooted in network science and agent-based modeling can help us to understand and overcome these challenges.
翻訳日:2023-05-18 00:52:11 公開日:2020-05-29
# bb84よりも効率的に鍵を共有できる量子鍵リサイクル技術

Quantum Key Recycling can share key more efficient than BB84 ( http://arxiv.org/abs/2005.14488v1 )

ライセンス: Link先を確認
Yu-Chin Lu, Chia-Wei Tsai, Tzonelih Hwang(参考訳) 我々は、lu et al.のquantum key recycling (qkr)プロトコルの鍵共有率を計算する。 鍵共有率は鍵レートの別のバージョンであるが、量子鍵分配(QKD)プロトコルとQKRプロトコルの両方で計算することができる。 本研究では,鍵共有率を定義し,QKRプロトコルの鍵共有率とQKDプロトコルの鍵共有率を比較する。 Lu et al. の QKR プロトコルは BB84 よりも効率的に鍵を共有できる。 また、Lu et al.のQKRプロトコルの6状態バージョンと6状態のQKDプロトコルを比較した。 本研究の結果は,量子プロトコルにおける公開議論の代替として,事前共有鍵を用いる可能性を示す。

We calculate the key sharing rate of Lu et al.'s Quantum Key Recycling (QKR) protocol. The key sharing rate is another version of the key rate, but it can be calculated for both the Quantum Key Distribution (QKD) protocols and the QKR protocols. We define the key sharing rate in this study and compare the key sharing rate of the QKR protocol to the rate of the QKD protocols. We found Lu et al.'s QKR protocol can be used to share keys more efficiently than BB84 in some situations. We also compare the six-state version of Lu et al.'s QKR protocol to the six-state QKD protocol. The results of this study show the potential advantages of using pre-shared keys to replace the public discussion in quantum protocols.
翻訳日:2023-05-18 00:51:23 公開日:2020-05-29
# フランソン型実験における相関線の起源

The origin of correlation fringe in Franson-type experiments ( http://arxiv.org/abs/2005.14432v1 )

ライセンス: Link先を確認
Byoung S. Ham(参考訳) 非局所相関は量子情報処理において重要な概念であり、量子絡み合いはそのような非古典的性質を提供する。 非干渉干渉干渉計に基づく2光子強度相関の最初の提案以来、Franson (Phys) による。 Rev. Lett. 62, 2205 (1989) において、光子の粒子の性質は、マッハ・ツェンダー干渉計 (MZIs) を用いて非局所的相関について集中的に研究されている。 ここでは、光子の波動特性が重要な役割を果たすフランソン型実験における非局所相関の起源について、MZIsの役割について検討する。 独立なmzi間の共役量子重ね合わせにより、非局所相関はmziを介して非エンタングル光子から生成できることが証明される。

Nonlocal correlation is the key concept in quantum information processing, where quantum entanglement provides such a nonclassical property. Since the first proposal of noninterfering interferometer-based two-photon intensity correlation by Franson (Phys. Rev. Lett. 62, 2205 (1989)), the particle nature of photons has been intensively studied for nonlocal correlation using Mach-Zehnder interferometers (MZIs). Here, the role of MZIs is investigated with respect to the origin of nonlocal correlation in Franson-type experiments, where the wave nature of photons plays a critical role. Under the coincidence-provided quantum superposition between independent MZIs, we prove that nonlocal correlation can be created from non-entangled photons through the MZIs.
翻訳日:2023-05-18 00:50:58 公開日:2020-05-29
# 点局在光子状態がない

No point-localized photon states ( http://arxiv.org/abs/2005.14378v1 )

ライセンス: Link先を確認
Scott E. Hoffmann(参考訳) 本論文の目的は、光子に対して点局在状態ベクトルを構築できるという主張を批判的に検証することである。 我々はこの可能性の簡単な証明を提供する。 すると、これらの主張の著者は、量子力学と同等ではない非標準スカラー積を使っていることが判明した。 この代替スカラー積は、それらが使用する状態ベクトルの位置にあるディラックデルタ関数に比例するが、証明の残りの要素、すなわちニュートン・ウィグナーの3つの基準を全て満たさない。

The aim of this paper is to critically examine claims that it is possible to construct point-localized state vectors for the photon. We supply a brief proof of the impossibility of this. Then it is found that the authors making these claims use a non-standard scalar product, not equal to the quantum-mechanical one. This alternative scalar product is found to be proportional to a Dirac delta function in position for the state vectors they use, but the remaining elements of the proof, namely satisfying all three Newton-Wigner criteria, are lacking.
翻訳日:2023-05-18 00:50:24 公開日:2020-05-29
# 量子ステアリングの共有性と絡み合いとの関係

Shareability of Quantum Steering and its Relation with Entanglement ( http://arxiv.org/abs/2005.14375v1 )

ライセンス: Link先を確認
Biswajit Paul and Kaushiki Mukherjee(参考訳) ステアビリティは、絡み合いとベル非局所性の間の量子相関の特徴である。 これらのステアリング相関が異なる当事者間でどのように共有できるかを理解することは、量子通信プロトコルのセキュリティを確保する上で重要な応用である。 ここでは、3量子ビット状態の少なくとも2つの2成分還元状態が2つの線形ステアリング不等式とは対照的に3つの設定cjwr線形ステアリング不等式を破ることができることを示す。 この結果、量子ステアリング相関は共有性に乏しい性質を持ち、時には一夫一婦であることもある。 2つの設定測定シナリオとは対照的に、3つの設定シナリオは、3部ステアリング相関の共有性をより深く理解するためにより有用であることが判明した。 ステアリング相関の分布は別として, 還元二部体ステアリング, 還元二部体エンタングルメントと真の三部体エンタングルメントの関係について述べる。 その結果, 異なる3成分の絡み合いの検出が可能となった。

Steerability is a characteristic of quantum correlations lying in between entanglement and Bell nonlocality. Understanding how these steering correlations can be shared between different parties has profound applications in ensuring security of quantum communication protocols. Here we show that at most two bipartite reduced states of a three qubit state can violate the three settings CJWR linear steering inequality contrary to two settings linear steering inequality. This result explains that quantum steering correlations have limited shareability properties and can sometimes even be nonmonogamous. In contrast to the two setting measurement scenario, three setting scenario turns out to be more useful to develop deeper understanding of shareability of tripartite steering correlations. Apart from distribution of steering correlations, several relations between reduced bipartite steering, different measures of bipartite entanglement of reduced states and genuine tripartite entanglement are presented here. The results enable detection of different kind of tripartite entanglement.
翻訳日:2023-05-18 00:50:13 公開日:2020-05-29
# ゼロ磁場における単一窒素中心のキロヘルツ電子常磁性共鳴分光

Kilohertz electron paramagnetic resonance spectroscopy of single nitrogen centers at zero magnetic field ( http://arxiv.org/abs/2005.14718v1 )

ライセンス: Link先を確認
Fei Kong, Pengju Zhao, Pei Yu, Zhuoyang Qin, Zhehua Huang, Zhecheng Wang, Mengqi Wang, Fazhan Shi, and Jiangfeng Du(参考訳) 電子常磁性共鳴分光法(epr)は、物理学、化学、生物学において最も重要な分析ツールである。 原子サイズの磁力計として機能するダイヤモンド中の窒素空孔(NV)中心の出現は、環境条件下であってもこの技術を単一スピンレベルに推し進めている。 空間分解能の著しい進歩にもかかわらず、現在のメガヘルツスペクトル分解能は重要な異種分子情報の解決にはまだ不十分である。 大きな課題は、サンプル電子スピンの短いコヒーレンス時間である。 ここでは、異なる対称性の状態間の磁気ノイズ非感応遷移を用いることで、この問題に対処する。 数キロヘルツの線幅を持つダイヤモンド中の単置換窒素(P1)中心の27倍の狭いスペクトルを示し、弱結合を解くことができる。 これらの結果は、NV中心型EPRの空間的およびスペクトル的進展と、単一分子レベルでの分析的(EPR)分光への経路を示す。

Electron paramagnetic resonance spectroscopy (EPR) is among the most important analytical tools in physics, chemistry, and biology. The emergence of nitrogen-vacancy (NV) centers in diamond, serving as an atomic-sized magnetometer, has promoted this technique to single-spin level, even under ambient conditions. Despite the enormous progress in spatial resolution, the current megahertz spectral resolution is still insufficient to resolve key heterogeneous molecular information. A major challenge is the short coherence times of the sample electron spins. Here, we address this challenge by employing a magnetic noise-insensitive transition between states of different symmetry. We demonstrate a 27-fold narrower spectrum of single substitutional nitrogen (P1) centers in diamond with linewidth of several kilohertz, and then some weak couplings can be resolved. Those results show both spatial and spectral advances of NV center-based EPR, and provide a route towards analytical (EPR) spectroscopy at single-molecule level.
翻訳日:2023-05-18 00:43:24 公開日:2020-05-29
# 磁場回転によるテンソル周波数シフトのコヒーレント抑制

Coherent suppression of tensor frequency shifts through magnetic field rotation ( http://arxiv.org/abs/2005.14687v1 )

ライセンス: Link先を確認
R. Lange, N. Huntemann, C. Sanner, H. Shao, B. Lipphardt, Chr. Tamm, E. Peik(参考訳) ラムゼー系列における自由原子状態進化中の外部磁場の連続回転に依存する原子時計における第2級テンソル周波数シフトをコヒーレントに抑制する手法を提案する。 この方法は、1回の尋問サイクルで未摂動周波数を回収し、様々な原子時計システムに容易に適用できる。 電気四極子相互作用による周波数シフトについては、単一の閉じ込められた${}^{171}\text{yb}^+$イオンの${}^2s_{1/2} \to {}^2d_{3/2}$遷移に対して、2桁以上の等級の抑制を実験的に実証する。 このスキームは、${}^{171}\text{Yb}^+$${}^2S_{1/2} \to {}^2F_{7/2}$ electric octupole (E3) 遷移の場合の特別な利点を提供する。 この遷移の残留四重極シフトのより良い推定のために、励起状態の四重極モーメント $\Theta({}^2D_{3/2}) = 1.95(1)~ea_0^2$ と $\Theta({}^2F_{7/2}) = -0.0297(5)~ea_0^2$ を初等電荷とボーア半径$a_0$ で測定し、測定の不確かさを1桁改善する。

We introduce a scheme to coherently suppress second-rank tensor frequency shifts in atomic clocks, relying on the continuous rotation of an external magnetic field during the free atomic state evolution in a Ramsey sequence. The method retrieves the unperturbed frequency within a single interrogation cycle and is readily applicable to various atomic clock systems. For the frequency shift due to the electric quadrupole interaction, we experimentally demonstrate suppression by more than two orders of magnitude for the ${}^2S_{1/2} \to {}^2D_{3/2}$ transition of a single trapped ${}^{171}\text{Yb}^+$ ion. The scheme provides particular advantages in the case of the ${}^{171}\text{Yb}^+$ ${}^2S_{1/2} \to {}^2F_{7/2}$ electric octupole (E3) transition. For an improved estimate of the residual quadrupole shift for this transition, we measure the excited state electric quadrupole moments $\Theta({}^2D_{3/2}) = 1.95(1)~ea_0^2$ and $\Theta({}^2F_{7/2}) = -0.0297(5)~ea_0^2$ with $e$ the elementary charge and $a_0$ the Bohr radius, improving the measurement uncertainties by one order of magnitude.
翻訳日:2023-05-18 00:42:22 公開日:2020-05-29
# 多粒子系の量子バックフロー

Quantum backflow for many-particle systems ( http://arxiv.org/abs/2005.14685v1 )

ライセンス: Link先を確認
Maximilien Barbier(参考訳) 量子バックフローは、正の運動量を持つ粒子がある時空点で負の確率電流を示すという事実に関する古典的な禁忌効果である。 この特異な現象が多粒子系にどのように広がるか検討する。 我々は、N$自由な非相対論的構造素粒子からなる系の量子逆流の一般的な定式化を与える。 N$同一のボソンが同じ一粒子状態にあるボソニック系に注意を向けることによって、特に解析的に、この場合の最大量子バックフローが、N$の大きな値に対して任意に小さくなることを示すことができる。

Quantum backflow is the classically-forbidden effect pertaining to the fact that a particle with a positive momentum may exhibit a negative probability current at some space-time point. We investigate how this peculiar phenomenon extends to many-particle systems. We give a general formulation of quantum backflow for systems formed of $N$ free nonrelativistic structureless particles, either identical or distinguishable. Restricting our attention to bosonic systems where the $N$ identical bosons are in the same one-particle state allows us in particular to analytically show that the maximum achievable amount of quantum backflow in this case becomes arbitrarily small for large values of $N$.
翻訳日:2023-05-18 00:41:54 公開日:2020-05-29
# マクロ実験はなぜ再現可能か? 単一純粋状態によるアンサンブルの挙動の模倣

Why are macroscopic experiments reproducible? Imitating the behavior of an ensemble by single pure states ( http://arxiv.org/abs/2005.14626v1 )

ライセンス: Link先を確認
Peter Reimann and Jochen Gemmer(参考訳) 物理的実験は、初期状態波動関数の完全同じ準備がしばしば実験可能な範囲を超えているにもかかわらず、事実上再現可能である。 したがって、初期波動関数の特異かつ制御不能な特徴が実験の可観測過程に無関係であるかどうかを探索することは自然である。 この目的のために、我々は純粋状態のアンサンブルを定義し、これは事実上すべての標準観測値の期待値の非常に類似した非平衡ダイナミクスを生成する。 アンサンブルは、例えばいくつかの特定の期待値など、システムの状態に関するいくつかの小さく粗い事前情報に従うように構成されている。 しかし、異なる性質を持つ異なる種類のアンサンブルが可能である。 そのいくつかについて論じる。

Evidently, physical experiments are practically reproducible even though the fully identical preparation of initial state wave functions is often far beyond experimental possibilities. It is thus natural to explore if and in which sense specific, uncontrollable features of initial wave functions are irrelevant for the observable course of an experiment. To this end we define ensembles of pure states which are then shown to generate extremely similar non-equilibrium dynamics of the expectation values of practically all standard observables. The ensembles are constructed to comply with some reduced, coarse a priori information on the state of the system, like, e.g. a few specific expectation values, etc. However, different types of ensembles with different additional properties are possible. We discuss some of them.
翻訳日:2023-05-18 00:41:23 公開日:2020-05-29
# 教師教育の持続的発展の文脈における適応的技術による学習のパーソナライズ

Personalization of learning through adaptive technologies in the context of sustainable development of teachers education ( http://arxiv.org/abs/2006.05810v1 )

ライセンス: Link先を確認
Maiia Marienko, Yulia Nosenko, Alisa Sukhikh, Viktor Tataurov, Mariya Shyshkina(参考訳) 本稿は、ICTベースの教育システム開発におけるグローバルなトレンドとして、パーソナライズドラーニングの課題を取り上げている。 進化の主段階, 適応学習システムの基本的特徴, 原則について, 教員養成への応用について概説する。 教師教育の持続的発展のためには,適応型クラウド学習システムの利用と整備が不可欠であることを強調する。 クラウドベースの適応型学習システム開発の現状と特異性について,教員養成のための実践のアプローチを考察する。 適応型クラウドベース学習システム構造の一般モデルを提案する。 モデルの主なコンポーネントが説明され、ツールとサービスの選択の問題の概要が述べられている。 教師養成の適応システムにおいて導入されるクラウドベースの学習コンポーネントの手法について考察する。 適応型クラウドベースシステムのモデリングと実装に関する最近の研究成果を概説する。

The article highlights the issues of personalized learning as the global trend of the modern ICTbased educational systems development. The notion, the main stages of evolution, the main features and principles of adaptive learning systems application for teachers training are outlined. It is emphasized that the use and elaboration of the adaptive cloud-based learning systems are essential to provide sustainable development of teachers education. The current trends and peculiarities of the cloud-based adaptive learning systems development and approach of their implementation for teachers training are considered. The general model of the adaptive cloud-based learning system structure is proposed. The main components of the model are described; the issues of tools and services selection are outlined. The methods of the cloudbased learning components introduction within the adaptive systems of teacher training are considered. The current research developments of modeling and implementation of the adaptive cloud-based systems are outlined.
翻訳日:2023-05-18 00:32:47 公開日:2020-05-29
# ウィグナー方程式にデコヒーレンスを加える

Adding decoherence to the Wigner equation ( http://arxiv.org/abs/2006.01121v1 )

ライセンス: Link先を確認
Luigi Barletti, Giovanni Frosali, Elisa Giovannini(参考訳) Adami, Hauray and Negulescu が提唱した単コリジョン・デコヒーレンス機構の詳細な記述から始め、比較的一般的な形のデコヒーレンス項を与えられたウィグナー方程式を導出する。 この方程式は、Wigner-Fokker-Planck方程式のようなよく知られたデコヒーレンスモデルを含む。 デコヒーレンス機構がマクロモーメント(密度、電流、エネルギー)のダイナミクスに及ぼす影響は、対応するバランス則のセットを導出することによって示される。 このモデルの大規模漸近論の問題は、物理的に関連はあるものの、ガウス解の場合には特に取り扱われる。 カルデイラ・レゲット摩擦項の追加は、物理的考察に基づいて期待される漸近的な振る舞いをもたらすことが示されている。

Starting from the detailed description of the single-collision decoherence mechanism proposed by Adami, Hauray and Negulescu, we derive a Wigner equation endowed with a decoherence term of a fairly general form. This equation is shown to contain well known decoherence models, such as the Wigner-Fokker-Planck equation, as particular cases. The effect of the decoherence mechanism on the dynamics of the macroscopic moments (density, current, energy) is illustrated by deriving the corresponding set of balance laws. The issue of large-time asymptotics of our model is addressed in the particular, although physically relevant, case of gaussian solutions. It is shown that the addition of a Caldeira-Legget friction term provides the asymptotic behaviour that one expects on the basis of physical considerations.
翻訳日:2023-05-18 00:32:36 公開日:2020-05-29
# プログラミング言語における古典的および量子的データ相互作用:実行時アーキテクチャ

Classical and Quantum Data Interaction in Programming Languages: A Runtime Architecture ( http://arxiv.org/abs/2006.00131v1 )

ライセンス: Link先を確認
Evandro Chagas Ribeiro da Rosa, Rafael de Santiago(参考訳) 本稿では,量子プログラミング言語とそのプログラミング環境の開発に使用できるランタイムアーキテクチャを提案する。 提案したランタイムアーキテクチャは、量子コンピュータがバッチコンピュータとしてクラウドで利用可能であり、実行中に古典的コンピュータと対話することなく、古典的データと量子的データの間の動的相互作用を可能にする。 これは、量子コード生成をランタイムに残し、量子測定の将来の概念を導入することによって行われる。 量子プログラミング言語に実装された場合、これらの戦略は量子アプリケーションの開発を促進することを目的としている。 現在のNISQ(Noisy Intermediate-Scale Quantum)コンピュータに適しているため、ランタイムアーキテクチャはシミュレーションや将来のフォールトトレランス量子コンピュータにも適している。

We propose a runtime architecture that can be used in the development of a quantum programming language and its programming environment. The proposed runtime architecture enables dynamic interaction between classical and quantum data following the restriction that a quantum computer is available in the cloud as a batch computer, with no interaction with the classical computer during its execution. It is done by leaving the quantum code generation for the runtime and introducing the concept of futures for quantum measurements. When implemented in a quantum programming language, those strategies aim to facilitate the development of quantum applications, especially for beginning programmers and students. Being suitable for the current Noisy Intermediate-Scale Quantum (NISQ) Computers, the runtime architecture is also appropriate for simulation and future Fault-Tolerance Quantum Computers.
翻訳日:2023-05-18 00:32:23 公開日:2020-05-29
# シングルピクセル大面積SNSPDの位置感度応答

Position Sensitive Response of a Single-Pixel Large-Area SNSPD ( http://arxiv.org/abs/2006.00126v1 )

ライセンス: Link先を確認
Claire E. Marvinney, Brian E. Lerner, Alexander A. Puretzky, Aaron J. Miller, Benjamin J. Lawrie(参考訳) 超伝導ナノワイヤ単光子検出器(SNSPD)は一般的に単モードファイバ結合単画素検出器として使用されるが、顕微鏡から自由空間量子通信まで幅広い領域検出器がますます重要になっている。 本稿では,バイアス電流,検出器の光スポットサイズ,パルス当たりの光子数などの機能として,大面積snspdの読み出しパルスの立ち上がりエッジの変化について検討する。 本研究では,立ち上がり時間のバイモーダル分布を観察し,立ち上がり時間の遅い確率は大きなスポットサイズと小さな光子数の限界で増加することを示した。 低バイアス電流の限界において、暗数読み出しパルスは、大きなスポットサイズと小さな光数読み出しパルスの組合せと最もよく似ている。 これらの結果は、ナノワイヤの長さに沿って異なる位置から単一光子によって励起されるマイクロ波モードの単純なモデルと一致している。

Superconducting nanowire single photon detectors (SNSPDs) are typically used as single-mode-fiber-coupled single-pixel detectors, but large area detectors are increasingly critical for applications ranging from microscopy to free-space quantum communications. Here, we explore changes in the rising edge of the readout pulse for large-area SNSPDs as a function of the bias current, optical spot size on the detector, and number of photons per pulse. We observe a bimodal distribution of rise times and show that the probability of a slow rise time increases in the limit of large spot sizes and small photon number. In the limit of low bias currents, the dark-count readout pulse is most similar to the combined large spot size and small-photon-number bright-count readout pulse. These results are consistent with a simple model of traveling microwave modes excited by single photons incident at varying positions along the length of the nanowire.
翻訳日:2023-05-18 00:32:09 公開日:2020-05-29
# 長距離キタエフ鎖のエッジ状態:解析的研究

Edge states of the long-range Kitaev chain: an analytical study ( http://arxiv.org/abs/2006.00092v1 )

ライセンス: Link先を確認
Simon B. J\"ager, Luca Dell'Anna, and Giovanna Morigi(参考訳) 長距離異方性ペアリングとトンネルによる一次元北エフモデルのエッジ状態の特性を解析した。 トンネルとペアリングはそれぞれ、指数 $\alpha$ と $\beta$ と $\alpha,\beta>1$ で代数的に崩壊すると仮定される。 我々はエッジモードの崩壊を解析的に決定する。 崩壊は$\alpha=\beta$に対して指数関数であり、トンネルとペアの項をスケーリングする係数が等しいときに現れる。 さもなくば、崩壊は十分短い距離で指数関数であり、その後漸近で代数的である。 代数的尾の指数は$\alpha$と$\beta$の間の最小の指数によって決定されることを示す。 我々の予測は、正確な対角化と文献における数値結果と一致している。

We analyze the properties of the edge states of the one-dimensional Kitaev model with long-range anisotropic pairing and tunneling. Tunneling and pairing are assumed to decay algebraically with exponents $\alpha$ and $\beta$, respectively, and $\alpha,\beta>1$. We determine analytically the decay of the edges modes. We show that the decay is exponential for $\alpha=\beta$ and when the coefficients scaling tunneling and pairing terms are equal. Otherwise, the decay is exponential at sufficiently short distances and then algebraic at the asymptotics. We show that the exponent of the algebraic tail is determined by the smallest exponent between $\alpha$ and $\beta$. Our predictions are in agreement with numerical results found by exact diagonalization and in the literature.
翻訳日:2023-05-18 00:31:24 公開日:2020-05-29
# 組織的アジリティを実現する変革イニシアティブの設計 - 実証的研究

Design of Transformation Initiatives Implementing Organisational Agility -- An Empirical Study ( http://arxiv.org/abs/2006.00048v1 )

ライセンス: Link先を確認
Ivan Kovynyov and Axel Buerck and Ralf Mikut(参考訳) この研究は、ドイツ、スイス、フランス、イギリスに本社を置くあらゆる規模の企業からの125の回答を使用して、組織のアジリティの要因の認識を明らかにする。 さらに、文化、価値、リーダーシップ、組織構造、プロセスなど、組織的アジリティを実現するための複数の組織的次元の管理原則の現在の理解についても調査する。 データセットは、ラガード、実行スペシャリスト、実験者、リーダーという、アジャイル組織の4つの主要なプロファイルにまとめられている。 アジャイルトランスフォーメーションのアプローチは、それぞれのプロファイルによって分析されます。 より全体主義的なアプローチによるポジティブな効果は確認されているが、リーダーはプロジェクト作業よりもプロセスや製品に集中する傾向がある。 IT、製品開発、研究は組織内の最もアジャイルな機能であり、人的資源、財務、管理はアジャイルではないと認識されている。 さらに、組織のアジリティのレベルが高い組織は、複数のアジャイルスケーリングフレームワークを使用する傾向があります。 アジャイルトランスフォーメーションと組織設計の理論に対する影響について論じる。

This study uses 125 responses from companies of all sizes headquartered in Germany, Switzerland, France and UK to reveal perceptions of the drivers of organisational agility. It further investigates current understanding of managing principles of multiple organisational dimensions such as culture, values, leadership, organisational structure, processes and others to achieve greater organisational agility. The data set is disaggregated into four major profiles of agile organisations: laggards, execution specialists, experimenters, and leaders. The approach to agile transformation is analysed by each of those profiles. While the positive effect from a more holistic approach is confirmed, leaders tend to focus more on processes and products rather than project work. Respondents perceive that IT, product development and research are most agile functions within their organisations, while human resources, finance and administration are considered being not agile. Further, organisations with higher levels of organisational agility tend use more than one agile scaling framework. Implications on theories of agile transformations and organisational design are discussed.
翻訳日:2023-05-18 00:31:11 公開日:2020-05-29
# エンド・ツー・エンドのピクセルベース深部能動推論による身体知覚と行動に関する研究

End-to-End Pixel-Based Deep Active Inference for Body Perception and Action ( http://arxiv.org/abs/2001.05847v3 )

ライセンス: Link先を確認
Cansu Sancaktar, Marcel van Gerven, Pablo Lanillos(参考訳) 我々は人体知覚と行動に触発されたピクセルベース深部能動推論アルゴリズム(PixelAI)を提案する。 本アルゴリズムは,変動推論に根ざした神経科学のフリーエネルギ原理と深い畳み込みデコーダを組み合わせることで,生の視覚入力を直接処理し,オンライン適応推論を提供する。 本手法は,シミュレーションと本物のnaoロボットを用いて身体の知覚と動作を研究することで検証する。 結果は 我々のアプローチが ロボットが 1)単眼カメラ画像のみを用いた腕の動的身体推定 2)視覚空間における「想像」アームへの自律的な手を伸ばします。 このことは,ロボットと人体の知覚と行動は,現在進行中の感覚入力によって誘導される能動的推論問題として,両者を効果的に解決できることを示唆している。

We present a pixel-based deep active inference algorithm (PixelAI) inspired by human body perception and action. Our algorithm combines the free-energy principle from neuroscience, rooted in variational inference, with deep convolutional decoders to scale the algorithm to directly deal with raw visual input and provide online adaptive inference. Our approach is validated by studying body perception and action in a simulated and a real Nao robot. Results show that our approach allows the robot to perform 1) dynamical body estimation of its arm using only monocular camera images and 2) autonomous reaching to "imagined" arm poses in the visual space. This suggests that robot and human body perception and action can be efficiently solved by viewing both as an active inference problem guided by ongoing sensory input.
翻訳日:2023-01-17 12:35:41 公開日:2020-05-29
# 対称性に適応した変分量子固有解法

Symmetry-adapted variational quantum eigensolver ( http://arxiv.org/abs/1912.13146v2 )

ライセンス: Link先を確認
Kazuhiro Seki, Tomonori Shirakawa, Seiji Yunoki(参考訳) 量子回路構造が通常ハミルトン対称性を破る変分量子解法(vqe)において,ハミルトニアンの空間対称性を復元する手法を提案する。 ここで導入された対称性対応vqeスキームは、空間群の所望の既約表現において空間対称性を復元するために単にエルミート的だがユニタリではない射影作用素を適用する。 量子状態の絡み合いは量子回路で表現されるが、投影演算子の非ユニタリ性はvqeフレームワークのポストプロセッシングとして古典的に扱われる。 一次元リング上のスピン-1/2$ハイゼンベルクモデルの数値シミュレーションにより、より浅い量子回路を用いた対称性適応型VQEスキームが基底状態の忠実度において著しく向上し、非対称性適応型VQEスキームと比較して精度良く基底状態エネルギーの観点から大きな優位性を持つことを示す。 また,本手法は基底状態計算に同じ回路構造を用いて,対称セクタによって特定できる低次励起状態の近似が可能であることを実証する。

We propose a scheme to restore spatial symmetry of Hamiltonian in the variational-quantum-eigensolver (VQE) algorithm for which the quantum circuit structures used usually break the Hamiltonian symmetry. The symmetry-adapted VQE scheme introduced here simply applies the projection operator, which is Hermitian but not unitary, to restore the spatial symmetry in a desired irreducible representation of the spatial group. The entanglement of a quantum state is still represented in a quantum circuit but the nonunitarity of the projection operator is treated classically as postprocessing in the VQE framework. By numerical simulations for a spin-$1/2$ Heisenberg model on a one-dimensional ring, we demonstrate that the symmetry-adapted VQE scheme with a shallower quantum circuit can achieve significant improvement in terms of the fidelity of the ground state and has a great advantage in terms of the ground-state energy with decent accuracy, as compared to the non-symmetry-adapted VQE scheme. We also demonstrate that the present scheme can approximate low-lying excited states that can be specified by symmetry sectors, using the same circuit structure for the ground-state calculation.
翻訳日:2023-01-16 21:28:53 公開日:2020-05-29
# 説明可能な深層畳み込みキャンドルスティック学習器

Explainable Deep Convolutional Candlestick Learner ( http://arxiv.org/abs/2001.02767v4 )

ライセンス: Link先を確認
Jun-Hao Chen, Samuel Yen-Chi Chen, Yun-Cheng Tsai, Chih-Shiang Shur(参考訳) キャンドルスティックは一定期間の価格変動の図式表現である。 トレーダは、ろうそくのパターンを見て資産のトレンドを発見することができます。 深い畳み込みニューラルネットワークは、キャンドルスティックパターンを認識することで大きな成功を収めているが、その推論はブラックボックスの中に隠れている。 トレーダはモデルが学んだことを確認できません。 本稿では,時系列の特定のロウソクスティックパターンを決定する学習モデルの推論を説明するためのフレームワークを提供する。 局所的な探索攻撃に基づいて,学習したモデルが,人間のトレーダーに類似した方法でロウソクスティックのパターンを認識することを示す。

Candlesticks are graphical representations of price movements for a given period. The traders can discovery the trend of the asset by looking at the candlestick patterns. Although deep convolutional neural networks have achieved great success for recognizing the candlestick patterns, their reasoning hides inside a black box. The traders cannot make sure what the model has learned. In this contribution, we provide a framework which is to explain the reasoning of the learned model determining the specific candlestick patterns of time series. Based on the local search adversarial attacks, we show that the learned model perceives the pattern of the candlesticks in a way similar to the human trader.
翻訳日:2023-01-13 09:32:01 公開日:2020-05-29
# 深層畳み込みニューラルネットワークを用いた画像分割の進化:調査

Evolution of Image Segmentation using Deep Convolutional Neural Network: A Survey ( http://arxiv.org/abs/2001.04074v3 )

ライセンス: Link先を確認
Farhana Sultana (1), Abu Sufian (1) and Paramartha Dutta (2), ((1) Dept. of Computer Science, University of Gour Banga, (2) Dept. of Computer & System Sciences, Visva-Bharati University)(参考訳) 自動運転車の運転から医療診断まで、画像分割のタスクの要件は至るところにあります。 画像のセグメンテーションはコンピュータビジョンにおいて必須のタスクの1つである。 このタスクは低レベル空間情報を必要とするため、他の視覚タスクよりも比較的複雑である。 基本的にイメージセグメンテーションはセグメンテーションとインスタンスセグメンテーションの2つのタイプからなる。 これら2つの基本的なタスクを組み合わせたバージョンはpanoptic segmentationとして知られている。 近年、深層畳み込みニューラルネットワーク(CNN)の成功はセグメンテーションの分野に大きな影響を与え、これまでに成功してきた様々なモデルをもたらした。 この調査では、cnnに基づくセマンティックセグメンテーションとインスタンスセグメンテーションの両方の作業の進化を見ていきます。 また、いくつかの最先端モデルのアーキテクチャの詳細を明記し、それらのモデルのハイパーパラメータチューニングに関するルーシーな理解を示すために、トレーニングの詳細について論じた。 また、異なるデータセット上でのこれらのモデルの性能の比較も行った。 最後に、最先端のパン光学セグメンテーションモデルを紹介した。

From the autonomous car driving to medical diagnosis, the requirement of the task of image segmentation is everywhere. Segmentation of an image is one of the indispensable tasks in computer vision. This task is comparatively complicated than other vision tasks as it needs low-level spatial information. Basically, image segmentation can be of two types: semantic segmentation and instance segmentation. The combined version of these two basic tasks is known as panoptic segmentation. In the recent era, the success of deep convolutional neural networks (CNN) has influenced the field of segmentation greatly and gave us various successful models to date. In this survey, we are going to take a glance at the evolution of both semantic and instance segmentation work based on CNN. We have also specified comparative architectural details of some state-of-the-art models and discuss their training details to present a lucid understanding of hyper-parameter tuning of those models. We have also drawn a comparison among the performance of those models on different datasets. Lastly, we have given a glimpse of some state-of-the-art panoptic segmentation models.
翻訳日:2023-01-11 23:15:31 公開日:2020-05-29
# 2つのボソニック系の量子熱力学

Quantum thermodynamics of two bosonic systems ( http://arxiv.org/abs/2001.04677v2 )

ライセンス: Link先を確認
Chiara Macchiavello, Alberto Riccardi, and Massimiliano F. Sacchi(参考訳) モード演算子における双線型変換を介して相互作用する2つのボソニック系間のエネルギー交換について検討する。 第1モードは熱力学系、第2モードは入浴系である。 この研究は、ボルツマン・ギブスの通常の正準形式で記述されていない浴を考慮できる量子熱力学 [1] の非常に最近の定式化にそのルーツを見出している。 バスは、スクイーズやコヒーレンスのような量子的性質を持ち、絡み合いによっても、最初はシステムと相関する。 ガウス状態の場合, それらの定義パラメータ, すなわち二次平均値と共分散行列, および相互作用過程における熱交換や加工などの関連する熱力学量との関係を定量化し, 主にガウス状態の場合に焦点を当てる。 当初非相関なガウス状態の場合を完全に解決し、この場合の第一熱力学の法則の最も一般的な形式を提供する。 また,いくつかの関連する例を考慮し,仕事の抽出や異常な熱流といった現象に相関がどう役立つかを検討することで,初期相関状態の事例について考察する。 最後に,次数2のrenyiエントロピーに基づく情報理論的なアプローチを提案し,熱交換における相関の役割を明らかにする。

We study the energy exchange between two bosonic systems that interact via bilinear transformations in the mode operators. The first mode is considered as the thermodynamic system, while the second is regarded as the bath. This work finds its roots in a very recent formulation of quantum thermodynamics [1] which allows to consider baths that are not described by the usual Boltzmann-Gibbs canonical form. Baths can possess quantum properties, such as squeezing or coherence, and can be initially correlated with the system, even through entanglement. We focus mainly on the case of Gaussian states, by quantifying the relation between their defining parameters, namely the mean values of the quadratures and the covariance matrix, and relevant thermodynamical quantities such as the heat exchanged and the work performed during the interaction process. We fully solve the case of initially uncorrelated Gaussian states and provide the most general form of the first law of thermodynamics in this case. We also discuss the case of initially correlated states by considering a number of relevant examples, studying how correlations can assist some phenomena, e.g. work extraction or anomalous heat flows. Finally, we present an information-theoretic approach based on the Renyi entropy of order two for clarifying more generally the role of correlations on heat exchanges.
翻訳日:2023-01-11 13:00:00 公開日:2020-05-29
# 行動に基づく強化学習のためのシンプルなリアクティブニューラルネットワークについて

On Simple Reactive Neural Networks for Behaviour-Based Reinforcement Learning ( http://arxiv.org/abs/2001.07973v2 )

ライセンス: Link先を確認
Ameya Pore and Gerardo Aragon-Camarasa(参考訳) brookの仮定アーキテクチャにインスパイアされた振る舞いベースの強化学習アプローチでは,完全接続ネットワークをリアクティブな振る舞いとしてトレーニングする。 私たちの作業前提は、ロボット開発者のドメイン知識を活用して、そのようなリアクティブな振る舞い、すなわちアプローチ、把握、リトラクションを分解し、トレーニングすることで、ピック&プレースロボットタスクを単純化できる、ということです。 そしてロボットは、アクター-批判的なアーキテクチャでそれらを組み合わせる方法を自律的に学習する。 Actor-Criticポリシーは、特定の時間配列における反応性行動の活性化と抑制機構を決定することである。 我々は,タスクがブロックを選択し,それを目標位置に持って行き,グリップをトップグリップから向き付けするシミュレーションロボット環境において,我々のアプローチを検証する。 後者は、現在のエンドツーエンドの強化学習が一般化に失敗する余分な自由度を表す。 その結果,各行動が単独で学習された場合,ロボット学習がより効果的になる可能性が示唆された。 つまり、私たちのアプローチは8000のエピソードで選択と配置のタスクを学習し、エンドツーエンドのアプローチと既存の最先端のアルゴリズムで必要とされるトレーニングエピソードの数を大幅に削減します。

We present a behaviour-based reinforcement learning approach, inspired by Brook's subsumption architecture, in which simple fully connected networks are trained as reactive behaviours. Our working assumption is that a pick and place robotic task can be simplified by leveraging domain knowledge of a robotics developer to decompose and train such reactive behaviours; namely, approach, grasp, and retract. Then the robot autonomously learns how to combine them via an Actor-Critic architecture. The Actor-Critic policy is to determine the activation and inhibition mechanisms of the reactive behaviours in a particular temporal sequence. We validate our approach in a simulated robot environment where the task is picking a block and taking it to a target position while orienting the gripper from a top grasp. The latter represents an extra degree-of-freedom of which current end-to-end reinforcement learning fail to generalise. Our findings suggest that robotic learning can be more effective if each behaviour is learnt in isolation and then combined them to accomplish the task. That is, our approach learns the pick and place task in 8,000 episodes, which represents a drastic reduction in the number of training episodes required by an end-to-end approach and the existing state-of-the-art algorithms.
翻訳日:2023-01-07 18:57:55 公開日:2020-05-29
# カルマンフィルタを用いた実時間線形作用素構成と状態推定

Real-time Linear Operator Construction and State Estimation with the Kalman Filter ( http://arxiv.org/abs/2001.11256v3 )

ライセンス: Link先を確認
Tsuyoshi Ishizone and Kazuyuki Nakamura(参考訳) カルマンフィルタは、線型ガウス系の状態を推定するための最も強力なツールである。 また,本手法を用いることで,予測最大化アルゴリズムを用いてモデルのパラメータを推定することができる。 しかし、このアルゴリズムはリアルタイムでは機能しない。 そこで本研究では,システムの遷移行列と状態をリアルタイムに推定する手法を提案する。 提案手法は,観測空間における推定,時間不変区間,オンライン学習フレームワークの3つのアイデアを用いる。 減衰振動モデルに適用し, 行列を推定する特異な性能を得た。 また,提案手法に局所化と空間的均一性を導入することにより,高次元時空間データにおいてノイズを低減できることを示した。 さらに,提案手法は,天気予報やベクトル場解析などの分野での利用の可能性を持っている。

The Kalman filter is the most powerful tool for estimation of the states of a linear Gaussian system. In addition, using this method, an expectation maximization algorithm can be used to estimate the parameters of the model. However, this algorithm cannot function in real time. Thus, we propose a new method that can be used to estimate the transition matrices and the states of the system in real time. The proposed method uses three ideas: estimation in an observation space, a time-invariant interval, and an online learning framework. Applied to damped oscillation model, we have obtained extraordinary performance to estimate the matrices. In addition, by introducing localization and spatial uniformity to the proposed method, we have demonstrated that noise can be reduced in high-dimensional spatio-temporal data. Moreover, the proposed method has potential for use in areas such as weather forecasting and vector field analysis.
翻訳日:2023-01-05 12:28:57 公開日:2020-05-29
# arctext:畳み込みニューラルネットワークアーキテクチャを記述するための統一テキストアプローチ

ArcText: A Unified Text Approach to Describing Convolutional Neural Network Architectures ( http://arxiv.org/abs/2002.10233v4 )

ライセンス: Link先を確認
Yanan Sun, Ziyao Ren, Gary G. Yen, Bing Xue, Mengjie Zhang and Jiancheng Lv(参考訳) 畳み込みニューラルネットワーク(CNN)の優位性は主に、広範囲な人間の専門知識で手作業で構築されるアーキテクチャに依存している。 残念なことに、このようなドメイン知識は、関心のある各ユーザが所有するとは限らない。 既存のCNNのデータマイニングは、そのアーキテクチャから有用なパターンや基本的なサブコンポーネントを見つけることができ、CNNの専門知識がなければ、適切なCNNアーキテクチャを設計するための十分な事前知識を提供する。 現在、様々な最先端のデータマイニングアルゴリズムが存在しているが、このマイニングには稀な作業しか行われていない。 主な理由の1つは、CNNアーキテクチャとデータマイニングアルゴリズムのギャップである。 具体的には、現在のCNNアーキテクチャ記述をデータマイニングアルゴリズムの入力に正確にベクトル化することはできない。 本稿では,テキストに基づくCNNアーキテクチャを記述するために,ArcTextという統一的なアプローチを提案する。 特に、4つの異なるユニットと注文方法がArcTextで精巧に設計され、同じアーキテクチャを十分な情報で一意に記述している。 また、得られた記述は対応するCNNアーキテクチャに正確に変換することができる。 ArcTextはCNNアーキテクチャとデータマイニング研究者のギャップを埋め、より広いシナリオに活用する可能性を持っている。

The superiority of Convolutional Neural Networks (CNNs) largely relies on their architectures that are often manually crafted with extensive human expertise. Unfortunately, such kind of domain knowledge is not necessarily owned by each of the users interested. Data mining on existing CNN can discover useful patterns and fundamental sub-comments from their architectures, providing researchers with strong prior knowledge to design proper CNN architectures when they have no expertise in CNNs. There have been various state-of-the-art data mining algorithms at hand, while there is only rare work that has been done for the mining. One of the main reasons is the gap between CNN architectures and data mining algorithms. Specifically, the current CNN architecture descriptions cannot be exactly vectorized to the input of data mining algorithms. In this paper, we propose a unified approach, named ArcText, to describing CNN architectures based on text. Particularly, four different units and an ordering method have been elaborately designed in ArcText, to uniquely describe the same architecture with sufficient information. Also, the resulted description can be exactly converted back to the corresponding CNN architecture. ArcText bridges the gap between CNN architectures and data mining researchers, and has the potentiality to be utilized to wider scenarios.
翻訳日:2022-12-31 18:27:54 公開日:2020-05-29
# 精密ゲーティング:動的2倍精度アクティベーションによるニューラルネットワークの効率向上

Precision Gating: Improving Neural Network Efficiency with Dynamic Dual-Precision Activations ( http://arxiv.org/abs/2002.07136v2 )

ライセンス: Link先を確認
Yichi Zhang, Ritchie Zhao, Weizhe Hua, Nayun Xu, G. Edward Suh, Zhiru Zhang(参考訳) 本稿では,ディープニューラルネットワークのためのエンドツーエンドトレーニング可能な動的2重精度量子化技術である精度ゲーティング(PG)を提案する。 PGは低い精度でほとんどの特徴を計算し、精度を維持するために高い精度で重要な特徴のごく一部しか計算しない。 提案手法は様々なDNNアーキテクチャに適用可能であり,精度の低下を伴わずにDNN実行の計算コストを大幅に削減する。 実験の結果, PGはShuffleNetのような静的に圧縮されたモバイルフレンドリーネットワークを含むCNNにおいて優れた結果が得られることがわかった。 最先端の予測ベースの量子化スキームと比較して、PGは ImageNet上で2.4$\times$より少ない計算で同じまたはより高い精度を達成する。 さらに、PGはRNNにも適用される。 8ビットの均一量子化と比較すると、PGはPenn Tree Bankデータセット上のLSTMの計算コストを2.7$\times$2.7$\timesで1ワードあたり1.2%改善する。 コードは、https://github.com/cornell-zhang/dnn-gating.comで入手できる。

We propose precision gating (PG), an end-to-end trainable dynamic dual-precision quantization technique for deep neural networks. PG computes most features in a low precision and only a small proportion of important features in a higher precision to preserve accuracy. The proposed approach is applicable to a variety of DNN architectures and significantly reduces the computational cost of DNN execution with almost no accuracy loss. Our experiments indicate that PG achieves excellent results on CNNs, including statically compressed mobile-friendly networks such as ShuffleNet. Compared to the state-of-the-art prediction-based quantization schemes, PG achieves the same or higher accuracy with 2.4$\times$ less compute on ImageNet. PG furthermore applies to RNNs. Compared to 8-bit uniform quantization, PG obtains a 1.2% improvement in perplexity per word with 2.7$\times$ computational cost reduction on LSTM on the Penn Tree Bank dataset. Code is available at: https://github.com/cornell-zhang/dnn-gating
翻訳日:2022-12-31 12:16:09 公開日:2020-05-29
# 空間適応インスタンス正規化による神経ポーズ伝達

Neural Pose Transfer by Spatially Adaptive Instance Normalization ( http://arxiv.org/abs/2003.07254v2 )

ライセンス: Link先を確認
Jiashun Wang, Chao Wen, Yanwei Fu, Haitao Lin, Tianyun Zou, Xiangyang Xue, Yinda Zhang(参考訳) ポーズ転送は数十年にわたって研究されており、ソースメッシュのポーズをターゲットメッシュに適用している。 特に本稿では,対象のヒューマンメッシュを変形させるために,ソース・ヒューマンメッシュのポーズを転送することに関心がある。 従来の研究では、ペアのソースとターゲットのメッシュは、ユーザのアノテートされたランドマーク/メシュポイントのポイントワイド対応によって存在すると仮定されている。 一方、ソースとターゲットメッシュが異なる同一性を持つ場合、ディープモデルの一般化能力は制限される。 そこで本研究では,新たに提案する空間適応型インスタンス正規化(spatially adaptive instance normalization)を活用し,最新の画像転送手法によるポーズ伝達を解く,最初のニューラルポーズ伝達モデルを提案する。 我々のモデルは、ソースとターゲットメッシュ間の通信を必要としない。 大規模な実験により,提案モデルでは,変形を対象メッシュへ効果的に転送することができ,未確認の同一性やメッシュのポーズに対処できる優れた一般化能力を有することが示された。 コードはhttps://github.com/jiashunwang/Neural-Pose-Transferで公開されている。

Pose transfer has been studied for decades, in which the pose of a source mesh is applied to a target mesh. Particularly in this paper, we are interested in transferring the pose of source human mesh to deform the target human mesh, while the source and target meshes may have different identity information. Traditional studies assume that the paired source and target meshes are existed with the point-wise correspondences of user annotated landmarks/mesh points, which requires heavy labelling efforts. On the other hand, the generalization ability of deep models is limited, when the source and target meshes have different identities. To break this limitation, we proposes the first neural pose transfer model that solves the pose transfer via the latest technique for image style transfer, leveraging the newly proposed component -- spatially adaptive instance normalization. Our model does not require any correspondences between the source and target meshes. Extensive experiments show that the proposed model can effectively transfer deformation from source to target meshes, and has good generalization ability to deal with unseen identities or poses of meshes. Code is available at https://github.com/jiashunwang/Neural-Pose-Transfer .
翻訳日:2022-12-23 03:43:30 公開日:2020-05-29
# 知識蒸留を用いた深部6DoF物体検出

Squeezed Deep 6DoF Object Detection Using Knowledge Distillation ( http://arxiv.org/abs/2003.13586v3 )

ライセンス: Link先を確認
Heitor Felix, Walber M. Rodrigues, David Mac\^edo, Francisco Sim\~oes, Adriano L. I. Oliveira, Veronica Teichrieb and Cleber Zanchettin(参考訳) 6dofポーズを考慮したオブジェクトの検出は、バーチャルおよび拡張現実アプリケーションを構築するための一般的な要件である。 通常、リアルタイム処理と適切なユーザエクスペリエンスのための高精度な結果を必要とする複雑なタスクである。 近年,RGB画像中の6DoFの物体を検出するディープラーニング技術が提案されている。 しかし、それらは複雑なネットワークに依存しており、モバイルデバイスでの動作を妨げる計算能力を必要としている。 本稿では,精度を維持しながら6DoF検出ネットワークの複雑さを低減する手法を提案する。 我々は、Knowledge Distillationを用いて、リアルタイム6DoF検出CNNから学ぶために、ポータブルな畳み込みニューラルネットワーク(CNN)を教えた。 提案手法により,RGB画像のみを用いたリアルタイムアプリケーションを実現する。 提案手法は,linemodデータセットを用いて提案手法の評価を行い,実験結果から,本手法では,従来のアーキテクチャに比べてメモリ要求量を約99\%削減し,その半分の精度を削減できることを確認した。 コードはhttps://github.com/heitorcfelix/singleshot6Dposeで入手できる。

The detection of objects considering a 6DoF pose is a common requirement to build virtual and augmented reality applications. It is usually a complex task which requires real-time processing and high precision results for adequate user experience. Recently, different deep learning techniques have been proposed to detect objects in 6DoF in RGB images. However, they rely on high complexity networks, requiring a computational power that prevents them from working on mobile devices. In this paper, we propose an approach to reduce the complexity of 6DoF detection networks while maintaining accuracy. We used Knowledge Distillation to teach portables Convolutional Neural Networks (CNN) to learn from a real-time 6DoF detection CNN. The proposed method allows real-time applications using only RGB images while decreasing the hardware requirements. We used the LINEMOD dataset to evaluate the proposed method, and the experimental results show that the proposed method reduces the memory requirement by almost 99\% in comparison to the original architecture with the cost of reducing half the accuracy in one of the metrics. Code is available at https://github.com/heitorcfelix/singleshot6Dpose.
翻訳日:2022-12-18 07:28:19 公開日:2020-05-29
# 見出しのフック:制御スタイルで見出しを生成することを学ぶ

Hooks in the Headline: Learning to Generate Headlines with Controlled Styles ( http://arxiv.org/abs/2004.01980v3 )

ライセンス: Link先を確認
Di Jin, Zhijing Jin, Joey Tianyi Zhou, Lisa Orii, Peter Szolovits(参考訳) 現在の要約システムは、平易で事実的な見出ししか生成しないが、露出を高めるために記憶に残るタイトルを作成するという実用的なニーズを満たさない。 我々は,より多くの読者を惹きつけるために,3つのスタイルオプション(humor, romance,clickbait)で見出しを充実させる新しいタスクであるsylistic headline generation (shg)を提案する。 スタイル固有の記事-見出しペアが存在しない(標準の見出し要約データセットとモノスタイルコーパスのみ)ため、TitleStylistは、要約タスクと再構成タスクを組み合わせて、スタイル固有の見出しを生成する。 また,テキストからスタイルをさらに切り離すための新しいパラメータ共有方式も導入した。 自動評価と人間評価の両方を通じて、タイトルスタイリストは、ユーモア、ロマンス、クリックベイトという3つのターゲットスタイルで、関連のある流れる見出しを生成できることを実証する。 私たちのモデルのアトラクションスコアは、最先端の要約モデルの9.68%を上回り、人間による参照よりも優れています。

Current summarization systems only produce plain, factual headlines, but do not meet the practical needs of creating memorable titles to increase exposure. We propose a new task, Stylistic Headline Generation (SHG), to enrich the headlines with three style options (humor, romance and clickbait), in order to attract more readers. With no style-specific article-headline pair (only a standard headline summarization dataset and mono-style corpora), our method TitleStylist generates style-specific headlines by combining the summarization and reconstruction tasks into a multitasking framework. We also introduced a novel parameter sharing scheme to further disentangle the style from the text. Through both automatic and human evaluation, we demonstrate that TitleStylist can generate relevant, fluent headlines with three target styles: humor, romance, and clickbait. The attraction score of our model generated headlines surpasses that of the state-of-the-art summarization model by 9.68%, and even outperforms human-written references.
翻訳日:2022-12-16 22:34:32 公開日:2020-05-29
# 液体状態機械の性能向上のための入力パターンの検討

Exploration of Input Patterns for Enhancing the Performance of Liquid State Machines ( http://arxiv.org/abs/2004.02540v2 )

ライセンス: Link先を確認
Shasha Guo, Lianhua Qu, Lei Wang, Shuo Tian, Shiming Li, Weixia Xu(参考訳) スパイキングニューラルネットワーク(SNN)は低消費電力で注目を集めている。 しかし、SNNのトレーニングは難しい。 貯留層コンピューティングの主要なタイプであるLiquid State Machine (LSM) は、SNN間のトレーニングコストの低さで広く認知されている。 性能向上のための LSM トポロジの探索には,資源負荷と時間を要する超パラメータ探索が必要となることが多い。 入力スケール縮小が LSM に与える影響について検討する。 LSMの入力低減を研究する主な理由は2つある。 ひとつは、大きな画像の入力次元が効率的な処理を必要とすることだ。 もうひとつは、入力探索がアーキテクチャ探索よりも一般的に経済的であることだ。 LSMの巨大な入力空間を効果的に扱うことの難しさを軽減し、入力削減がLSMの性能を向上させることができるかどうかを確認するために、フルスケール、スキャンライン、チェスボード、パッチなどの入力パターンを探索する。 2つの時空間画像データセットと1つの時空間画像データベースを含む,提案した入力パターンの性能を評価するために,いくつかのデータセットが使用されている。 実験結果から,チェスボードパターンによる入力の削減により,最大5%の精度向上が達成され,LSMのフルスケール入力パターンよりも最大75%少ない入力ストレージで実行時間を最大50%削減できることがわかった。

Spiking Neural Networks (SNN) have gained increasing attention for its low power consumption. But training SNN is challenging. Liquid State Machine (LSM), as a major type of Reservoir computing, has been widely recognized for its low training cost among SNNs. The exploration of LSM topology for enhancing performance often requires hyper-parameter search, which is both resource-expensive and time-consuming. We explore the influence of input scale reduction on LSM instead. There are two main reasons for studying input reduction of LSM. One is that the input dimension of large images requires efficient processing. Another one is that input exploration is generally more economic than architecture search. To mitigate the difficulty in effectively dealing with huge input spaces of LSM, and to find that whether input reduction can enhance LSM performance, we explore several input patterns, namely fullscale, scanline, chessboard, and patch. Several datasets have been used to evaluate the performance of the proposed input patterns, including two spatio image datasets and one spatio-temporal image database. The experimental results show that the reduced input under chessboard pattern improves the accuracy by up to 5%, and reduces execution time by up to 50% with up to 75\% less input storage than the fullscale input pattern for LSM.
翻訳日:2022-12-16 07:32:10 公開日:2020-05-29
# 先行辞書を用いた物理形ニューラルネットワーク学習の高速化

Accelerating Physics-Informed Neural Network Training with Prior Dictionaries ( http://arxiv.org/abs/2004.08151v2 )

ライセンス: Link先を確認
Wei Peng, Weien Zhou, Jun Zhang, Wen Yao(参考訳) 物理インフォームドニューラルネットワーク(PINN)は汎用PDEソルバと見なすことができるが、特定の問題に対してPINNを訓練するのは遅く、対応するエラー境界の理論的保証はない。 本稿では,先行辞書型物理インフォームドニューラルネットワーク(pd-pinns)と呼ばれる手法を提案する。 タスク依存辞書を装備したPD-PINNは、タスクの表現力を向上し、辞書が提供する特徴をキャプチャして、提案したニューラルネットワークがトレーニングプロセスにおいてより高速な収束を実現するのに役立つ。 様々な数値シミュレーションにおいて、既存のpinn法と比較して、先行辞書の組み合わせは収束速度を大幅に向上させることができる。 理論の観点からは、2次楕円偏微分方程式の解法として PINN や PD-PINN に適用できる誤差境界を求める。 特定の穏やかな条件下では、ニューラルネットワークによる予測誤差は、予測されたPDEの損失と境界条件によって境界付けられることが証明された。

Physics-Informed Neural Networks (PINNs) can be regarded as general-purpose PDE solvers, but it might be slow to train PINNs on particular problems, and there is no theoretical guarantee of corresponding error bounds. In this manuscript, we propose a variant called Prior Dictionary based Physics-Informed Neural Networks (PD-PINNs). Equipped with task-dependent dictionaries, PD-PINNs enjoy enhanced representation power on the tasks, which helps to capture features provided by dictionaries so that the proposed neural networks can achieve faster convergence in the process of training. In various numerical simulations, compared with existing PINN methods, combining prior dictionaries can significantly enhance convergence speed. In terms of theory, we obtain the error bounds applicable to PINNs and PD-PINNs for solving elliptic partial differential equations of second order. It is proved that under certain mild conditions, the prediction error made by neural networks can be bounded by expected loss of PDEs and boundary conditions.
翻訳日:2022-12-12 12:40:35 公開日:2020-05-29
# 多発性硬化症における4次元深層学習

4D Deep Learning for Multiple Sclerosis Lesion Activity Segmentation ( http://arxiv.org/abs/2004.09216v2 )

ライセンス: Link先を確認
Nils Gessert and Marcel Bengs and Julia Kr\"uger and Roland Opfer and Ann-Christin Ostwaldt and Praveena Manogaran and Sven Schippling and Alexander Schlaefer(参考訳) 多発性硬化性病変活動のセグメンテーションは、ベースラインと追跡脳MRIスキャンの間に出現する新規および拡張性病変を検出するタスクである。 単一走査型病変セグメンテーションのための深層学習手法は一般的であるが, 病変活動に対する深層学習アプローチは近年まで提案されていない。 ここでは、2パスアーキテクチャが2つの時点から2つの3次元MRIボリュームを処理する。 本研究では,MRIボリュームの履歴を用いて,この問題をフル4次元深層学習に拡張することで,性能の向上を図る。 本研究では,4次元データを処理するための再帰的マルチエンコーダデコーダアーキテクチャを設計する。 時間的情報の追加は有益であり,提案アーキテクチャは前回のアプローチを上回っており,病変別真正率0.84,病変別偽陽性率0.19を上回っている。

Multiple sclerosis lesion activity segmentation is the task of detecting new and enlarging lesions that appeared between a baseline and a follow-up brain MRI scan. While deep learning methods for single-scan lesion segmentation are common, deep learning approaches for lesion activity have only been proposed recently. Here, a two-path architecture processes two 3D MRI volumes from two time points. In this work, we investigate whether extending this problem to full 4D deep learning using a history of MRI volumes and thus an extended baseline can improve performance. For this purpose, we design a recurrent multi-encoder-decoder architecture for processing 4D data. We find that adding more temporal information is beneficial and our proposed architecture outperforms previous approaches with a lesion-wise true positive rate of 0.84 at a lesion-wise false positive rate of 0.19.
翻訳日:2022-12-11 19:23:42 公開日:2020-05-29
# fMRIデータ解析における確率的グラフィカルモデルによる構造的仮定の導入

Incorporating structured assumptions with probabilistic graphical models in fMRI data analysis ( http://arxiv.org/abs/2005.04879v2 )

ライセンス: Link先を確認
Ming Bo Cai, Michael Shvartsman, Anqi Wu, Hejia Zhang, Xia Zhu(参考訳) 認知神経科学研究者による機能的磁気共鳴イメージング(fMRI)の普及により、近年大量の脳画像データが蓄積されている。 科学的洞察を導き出すためにこれらのデータを集約することは、fMRIデータが高次元であり、人々間で異質であり、騒々しいという課題に直面していることが多い。 これらの課題は、神経科学の問題とデータの性質の両方に合わせた計算ツールの開発を要求する。 自然言語処理におけるfMRI、全脳機能接続の解析、パターン分類、表現類似性の推論、構造的残差のモデリングなど、fMRI研究の分野で最近開発されたアルゴリズムについて概説する。 それらは、ニューラルネットワークと既存のドメイン知識に関する仮定の明確なステートメントを作成し、それらの仮定とドメイン知識を確率的グラフィカルモデルに組み込むことから始まり、それらのモデルを使用してデータ内の関心や潜伏構造の性質を推定する。 このようなアプローチは誤った発見を回避し、ノイズの影響を低減し、データの既知の特性をより活用し、被験者のグループ間でデータを収集する。 これらの成功例では、認知神経科学における明示的モデル構築の広範な採用を提唱する。 fMRIに焦点をあてるが、ここで示される原理は、他のモダリティの脳データに適用できる。

With the wide adoption of functional magnetic resonance imaging (fMRI) by cognitive neuroscience researchers, large volumes of brain imaging data have been accumulated in recent years. Aggregating these data to derive scientific insights often faces the challenge that fMRI data are high-dimensional, heterogeneous across people, and noisy. These challenges demand the development of computational tools that are tailored both for the neuroscience questions and for the properties of the data. We review a few recently developed algorithms in various domains of fMRI research: fMRI in naturalistic tasks, analyzing full-brain functional connectivity, pattern classification, inferring representational similarity and modeling structured residuals. These algorithms all tackle the challenges in fMRI similarly: they start by making clear statements of assumptions about neural data and existing domain knowledge, incorporating those assumptions and domain knowledge into probabilistic graphical models, and using those models to estimate properties of interest or latent structures in the data. Such approaches can avoid erroneous findings, reduce the impact of noise, better utilize known properties of the data, and better aggregate data across groups of subjects. With these successful cases, we advocate wider adoption of explicit model construction in cognitive neuroscience. Although we focus on fMRI, the principle illustrated here is generally applicable to brain data of other modalities.
翻訳日:2022-12-04 20:55:28 公開日:2020-05-29
# 深部キャンドルスティック学習者のデータ拡張

Data Augmentation for Deep Candlestick Learner ( http://arxiv.org/abs/2005.06731v2 )

ライセンス: Link先を確認
Chia-Ying Tsao, Jun-Hao Chen, Samuel Yen-Chi Chen, and Yun-Cheng Tsai(参考訳) ディープラーニングモデルをうまく構築するには、大量のラベル付きデータが必要です。 しかし、ラベル付きデータは多くのユースケースで収集が難しい。 この問題に対処するため、近年データ拡張手法が数多く導入され、コンピュータビジョンや自然言語などにおいて成功した成果が示されている。 金融トレーディングデータについては、私たちの知る限り、成功したデータ拡張フレームワークはめったに研究されていない。 本稿では,プロのトレーダにとって非常に重要なツールであるロウソクスティックデータを拡張するための改良されたローカル検索攻撃サンプリング手法を提案する。 提案手法は,人間による識別が難しい高品質なデータを生成することができ,データセットが小さい場合でも,既存の機械学習技術を採用するための新たな方法が提供される。

To successfully build a deep learning model, it will need a large amount of labeled data. However, labeled data are hard to collect in many use cases. To tackle this problem, a bunch of data augmentation methods have been introduced recently and have demonstrated successful results in computer vision, natural language and so on. For financial trading data, to our best knowledge, successful data augmentation framework has rarely been studied. Here we propose a Modified Local Search Attack Sampling method to augment the candlestick data, which is a very important tool for professional trader. Our results show that the proposed method can generate high-quality data which are hard to distinguish by human and will open a new way for finance community to employ existing machine learning techniques even if the dataset is small.
翻訳日:2022-12-03 04:19:43 公開日:2020-05-29
# エージェント行動の局所的・グローバル的説明:戦略要約とサリエンシマップの統合

Local and Global Explanations of Agent Behavior: Integrating Strategy Summaries with Saliency Maps ( http://arxiv.org/abs/2005.08874v3 )

ライセンス: Link先を確認
Tobias Huber, Katharina Weitz, Elisabeth Andr\'e, Ofra Amir(参考訳) 強化学習(RL)の進歩に伴い、医療や交通などの高度な応用分野においてエージェントが開発されている。 これらのエージェントの振る舞いを説明することは、彼らが行動する環境は大きな状態空間を持ち、意思決定は遅延した報酬に影響され、行動を分析するのが難しくなるため、難しい。 この問題に対処するため、いくつかのアプローチが開発されている。 いくつかのアプローチでは、エージェントの$\textit{global}$動作を伝達し、異なる状態におけるアクションを記述する。 他のアプローチでは、特定の状態におけるエージェントの意思決定に関する情報を提供する$\textit{local}$ explanationsを考案した。 本稿では,グローバルな説明手法とローカルな説明手法を組み合わせて,両者の協力関係と貢献関係を評価し,RLエージェントの局所的説明とグローバルな説明を組み合わせた最初のユーザスタディを提供する。 具体的には,エージェントのシミュレーションから重要な状態の軌跡を抽出する戦略要約を,エージェントがどの情報に従うかを示すサラジェンシマップで補強する。 その結果, エージェントの理解にどのような状態を含むかの選択は, エージェントの理解に強く影響し, 重要な状態を含む要約が, ランダムに選択された世界状態のエージェント行動で提示された参加者より有意に優れていたことが示唆された。 その結果,サリエンシマップの付加では性能が向上しなかったため,サリエンシマップを用いたデモ(地域情報)の強化に関する複合的な結果が得られた。 しかし,サリエンシマップが,エージェントが意思決定にどのような情報に依存しているのかをよりよく理解する上で有効であることを示す証拠がいくつか見出され,RLエージェントの説明をさらに改善できる今後の作業への道筋が示唆された。

With advances in reinforcement learning (RL), agents are now being developed in high-stakes application domains such as healthcare and transportation. Explaining the behavior of these agents is challenging, as the environments in which they act have large state spaces, and their decision-making can be affected by delayed rewards, making it difficult to analyze their behavior. To address this problem, several approaches have been developed. Some approaches attempt to convey the $\textit{global}$ behavior of the agent, describing the actions it takes in different states. Other approaches devised $\textit{local}$ explanations which provide information regarding the agent's decision-making in a particular state. In this paper, we combine global and local explanation methods, and evaluate their joint and separate contributions, providing (to the best of our knowledge) the first user study of combined local and global explanations for RL agents. Specifically, we augment strategy summaries that extract important trajectories of states from simulations of the agent with saliency maps which show what information the agent attends to. Our results show that the choice of what states to include in the summary (global information) strongly affects people's understanding of agents: participants shown summaries that included important states significantly outperformed participants who were presented with agent behavior in a randomly set of chosen world-states. We find mixed results with respect to augmenting demonstrations with saliency maps (local information), as the addition of saliency maps did not significantly improve performance in most cases. However, we do find some evidence that saliency maps can help users better understand what information the agent relies on in its decision making, suggesting avenues for future work that can further improve explanations of RL agents.
翻訳日:2022-12-01 22:46:58 公開日:2020-05-29
# 人間ライクな汎用言語処理

Human-like general language processing ( http://arxiv.org/abs/2005.09175v2 )

ライセンス: Link先を確認
Feng Qi, Guanjun Jiang(参考訳) 言語を使用すると、人間は知恵で動物を追い越す。 機械が言語を柔軟に理解し、学習し、使用できるようにするため、センサモレータ、アソシエーション、認知システムを含むヒューマンライクな汎用言語処理(HGLP)アーキテクチャを提案する。 HGLPネットワークは、子供のように簡単から難易度まで学習し、マルチモーダルニューロンを協調して単語の意味を理解し、仮想世界モデルをリアルタイムに構築して文を理解・生成し、言語的に思考過程全体を表現できる。 HGLPは、オブジェクト認識、文理解、想像力、注意制御、クエリ、推論、運動判断、混合算術演算、数字のトレースと書き込み、言語によって導かれる人間のような反復的思考プロセスを含む10以上のタスクを急速に学習した。 HGLPフレームワークの言語は一致や相関統計ではなく、想像力を記述し制御できるスクリプトである。

Using language makes human beings surpass animals in wisdom. To let machines understand, learn, and use language flexibly, we propose a human-like general language processing (HGLP) architecture, which contains sensorimotor, association, and cognitive systems. The HGLP network learns from easy to hard like a child, understands word meaning by coactivating multimodal neurons, comprehends and generates sentences by real-time constructing a virtual world model, and can express the whole thinking process verbally. HGLP rapidly learned 10+ different tasks including object recognition, sentence comprehension, imagination, attention control, query, inference, motion judgement, mixed arithmetic operation, digit tracing and writing, and human-like iterative thinking process guided by language. Language in the HGLP framework is not matching nor correlation statistics, but a script that can describe and control the imagination.
翻訳日:2022-12-01 13:29:51 公開日:2020-05-29
# FashionBERT: クロスモーダル検索のための適応損失とテキストと画像マッチング

FashionBERT: Text and Image Matching with Adaptive Loss for Cross-modal Retrieval ( http://arxiv.org/abs/2005.09801v2 )

ライセンス: Link先を確認
Dehong Gao, Linbo Jin, Ben Chen, Minghui Qiu, Peng Li, Yi Wei, Yi Hu and Hao Wang(参考訳) 本稿では,ファッション産業のクロスモーダル検索におけるテキストと画像マッチングについて述べる。 一般的なドメインのマッチングとは異なり、ファッションマッチングはファッション画像やテキストの詳細な情報にもっと注意を払う必要がある。 Pioneerのアプローチは、画像から関心領域(すなわちRoI)を検出し、画像表現としてRoI埋め込みを使用する。 一般的に、RoIはファッション画像の「オブジェクトレベル」の情報を表す傾向があり、ファッションテキストはスタイル、属性などより詳細な情報を記述する傾向にある。 したがって、RoIはファッションテキストや画像マッチングに十分な粒度ではない。 そこで,本稿では,パッチを画像特徴として活用するfashionbertを提案する。 トレーニング済みのBERTモデルをバックボーンネットワークとして、FashionBERTはテキストや画像のハイレベルな表現を学習する。 一方,fashionbertモデリングでは,マルチタスク学習をトレードオフする適応的損失を提案する。 FashionBERTを評価するために、テキストと画像マッチングとクロスモーダル検索という2つのタスクが組み込まれている。 公開データセットでは、FashionBERTがベースラインや最先端のアプローチよりもパフォーマンスが大幅に向上したことを実証している。 実際には、FashionBERTは具体的なクロスモーダル検索アプリケーションに適用される。 詳細なマッチング性能と推論効率分析を提供する。

In this paper, we address the text and image matching in cross-modal retrieval of the fashion industry. Different from the matching in the general domain, the fashion matching is required to pay much more attention to the fine-grained information in the fashion images and texts. Pioneer approaches detect the region of interests (i.e., RoIs) from images and use the RoI embeddings as image representations. In general, RoIs tend to represent the "object-level" information in the fashion images, while fashion texts are prone to describe more detailed information, e.g. styles, attributes. RoIs are thus not fine-grained enough for fashion text and image matching. To this end, we propose FashionBERT, which leverages patches as image features. With the pre-trained BERT model as the backbone network, FashionBERT learns high level representations of texts and images. Meanwhile, we propose an adaptive loss to trade off multitask learning in the FashionBERT modeling. Two tasks (i.e., text and image matching and cross-modal retrieval) are incorporated to evaluate FashionBERT. On the public dataset, experiments demonstrate FashionBERT achieves significant improvements in performances than the baseline and state-of-the-art approaches. In practice, FashionBERT is applied in a concrete cross-modal retrieval application. We provide the detailed matching performance and inference efficiency analysis.
翻訳日:2022-12-01 05:23:31 公開日:2020-05-29
# 実世界における表データ分類のためのネットワーク・オン・ネットワーク

Network On Network for Tabular Data Classification in Real-world Applications ( http://arxiv.org/abs/2005.10114v2 )

ライセンス: Link先を確認
Yuanfei Luo, Hao Zhou, Weiwei Tu, Yuqiang Chen, Wenyuan Dai and Qiang Yang(参考訳) 表データ(tabular data)は、小売、金融、電子商取引、表データ分類など、当社の顧客が採用する最も一般的なデータフォーマットです。 本稿では,ディープニューラルネットワークに基づく実用的な表型データ分類モデルであるNetwork On Network (NON)を提案する。 様々な深い方法が提案され、有望な進歩がなされている。 しかし、ほとんどの場合、ニューラルネットワークやファクトリゼーションマシンのような操作を使用して、異なる機能の埋め込みを直接フューズし、それらの操作の出力を線形に組み合わせて最終的な予測を得る。 その結果、これらの操作(例えば、ニューラルネットワークと分解機)間のフィールド内情報と非線形相互作用は無視される。 フィールド内情報は、各フィールド内の特徴が同一フィールドに属する情報である。 nonはフィールド内情報と非線形相互作用を最大限に活用するために提案されている。 下位のフィールドワイドネットワークでフィールド内情報をキャプチャし、中央のフィールドネットワークで適切な操作をデータ駆動で選択し、上部の核融合ネットワークで選択した操作の出力を深く融合させる。 6つの実世界のデータセットに対する大規模な実験は、NONが最先端のモデルを大幅に上回ることを示した。 さらに, 埋込空間の特徴の質的および定量的研究により, NONはフィールド内情報を効果的に捉えることができることを示した。

Tabular data is the most common data format adopted by our customers ranging from retail, finance to E-commerce, and tabular data classification plays an essential role to their businesses. In this paper, we present Network On Network (NON), a practical tabular data classification model based on deep neural network to provide accurate predictions. Various deep methods have been proposed and promising progress has been made. However, most of them use operations like neural network and factorization machines to fuse the embeddings of different features directly, and linearly combine the outputs of those operations to get the final prediction. As a result, the intra-field information and the non-linear interactions between those operations (e.g. neural network and factorization machines) are ignored. Intra-field information is the information that features inside each field belong to the same field. NON is proposed to take full advantage of intra-field information and non-linear interactions. It consists of three components: field-wise network at the bottom to capture the intra-field information, across field network in the middle to choose suitable operations data-drivenly, and operation fusion network on the top to fuse outputs of the chosen operations deeply. Extensive experiments on six real-world datasets demonstrate NON can outperform the state-of-the-art models significantly. Furthermore, both qualitative and quantitative study of the features in the embedding space show NON can capture intra-field information effectively.
翻訳日:2022-12-01 04:55:10 公開日:2020-05-29
# 一般化極値分布を用いた運動画像脳波信号の無抑圧検出

Mu-suppression detection in motor imagery electroencephalographic signals using the generalized extreme value distribution ( http://arxiv.org/abs/2005.11242v2 )

ライセンス: Link先を確認
Antonio Quintero-Rinc\'on, Carlos D'Giano, Hadj Batatia(参考訳) 本稿では脳-コンピュータインタフェース(BCI)における脳波信号からのミュー抑制の検出について述べる。 この目的のために,統計モデルと線形分類器に基づく効率的なアルゴリズムを提案する。 より正確には、中枢運動野における脳波信号のパワースペクトル密度を表すために、一般化極値分布(GEV)を提案する。 関連する3つのパラメータを最大度法を用いて推定する。 これらのパラメータに基づいて、画像、動き、休息という3種類のイベントを分類するシンプルで効率的な線形分類器が設計された。 予備的な結果は,提案した統計モデルを用いて,ミュープレッションを正確に検出し,異なる脳波事象を識別し,分類精度が極めて良好であることを示す。

This paper deals with the detection of mu-suppression from electroencephalographic (EEG) signals in brain-computer interface (BCI). For this purpose, an efficient algorithm is proposed based on a statistical model and a linear classifier. Precisely, the generalized extreme value distribution (GEV) is proposed to represent the power spectrum density of the EEG signal in the central motor cortex. The associated three parameters are estimated using the maximum likelihood method. Based on these parameters, a simple and efficient linear classifier was designed to classify three types of events: imagery, movement, and resting. Preliminary results show that the proposed statistical model can be used in order to detect precisely the mu-suppression and distinguish different EEG events, with very good classification accuracy.
翻訳日:2022-11-30 09:42:14 公開日:2020-05-29
# GECToR -- 文法上のエラー訂正: タグ、リライトなし

GECToR -- Grammatical Error Correction: Tag, Not Rewrite ( http://arxiv.org/abs/2005.12592v2 )

ライセンス: Link先を確認
Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, Oleksandr Skurzhanskyi(参考訳) 本稿では,Transformerエンコーダを用いた簡易かつ効率的なGCCシークエンスタグを提案する。 本システムは, 合成データに基づいて事前学習を行い, 次いで, 誤りのないコーパス, エラーのない並列コーパスの組み合わせの2段階で微調整を行う。 入力トークンをターゲット修正にマップするために、カスタムトークンレベルの変換を設計する。 我々の最高のシングルモデル/アンサンブルGCCタグは、CoNLL-2014(テスト)で65.3/66.5ドル、BEA-2019(テスト)で72.4/73.6ドルを達成する。 推論速度はTransformerベースのseq2seq GECシステムの最大10倍である。 コードとトレーニングされたモデルは公開されている。

In this paper, we present a simple and efficient GEC sequence tagger using a Transformer encoder. Our system is pre-trained on synthetic data and then fine-tuned in two stages: first on errorful corpora, and second on a combination of errorful and error-free parallel corpora. We design custom token-level transformations to map input tokens to target corrections. Our best single-model/ensemble GEC tagger achieves an $F_{0.5}$ of 65.3/66.5 on CoNLL-2014 (test) and $F_{0.5}$ of 72.4/73.6 on BEA-2019 (test). Its inference speed is up to 10 times as fast as a Transformer-based seq2seq GEC system. The code and trained models are publicly available.
翻訳日:2022-11-28 23:31:33 公開日:2020-05-29
# Poly-YOLO: YOLOv3の高速,高精度検出,インスタンスセグメンテーション

Poly-YOLO: higher speed, more precise detection and instance segmentation for YOLOv3 ( http://arxiv.org/abs/2005.13243v2 )

ライセンス: Link先を確認
Petr Hurtik, Vojtech Molek, Jan Hula, Marek Vajgl, Pavel Vlasanek, Tomas Nejezchleba(参考訳) より優れたパフォーマンスと,Poly-YOLOと呼ばれるインスタンスセグメンテーションによって拡張されたYOLOの新バージョンを提案する。 Poly-YOLOはYOLOv3の元々の考え方に基づいており、大量のリライトラベルとアンカーの非効率分布という2つの弱点を取り除く。 Poly-YOLOは、高カラム技術を用いて軽量SE-Darknet-53バックボーンから特徴を集約し、ステップアップサンプリングを使用して、高解像度で単一スケール出力を生成することで問題を軽減している。 YOLOv3と比較して、Poly-YOLOはトレーニング可能なパラメータの60%しか持っていないが、mAPを相対40%改善している。 また,より少ないパラメータと低い出力分解能を有するポリヨーロライトを提案する。 YOLOv3と同じ精度だが、3倍小さく2倍の速さで、組込みデバイスに適している。 最後に、Poly-YOLOはバウンディングポリゴンを使用してインスタンスセグメンテーションを行う。 ネットワークは、極性格子上に定義されたサイズ非依存多角形を検出するように訓練される。 各ポリゴンの頂点はその信頼度で予測され、したがってポリヨーロは様々な数の頂点を持つポリゴンを生成する。

We present a new version of YOLO with better performance and extended with instance segmentation called Poly-YOLO. Poly-YOLO builds on the original ideas of YOLOv3 and removes two of its weaknesses: a large amount of rewritten labels and inefficient distribution of anchors. Poly-YOLO reduces the issues by aggregating features from a light SE-Darknet-53 backbone with a hypercolumn technique, using stairstep upsampling, and produces a single scale output with high resolution. In comparison with YOLOv3, Poly-YOLO has only 60% of its trainable parameters but improves mAP by a relative 40%. We also present Poly-YOLO lite with fewer parameters and a lower output resolution. It has the same precision as YOLOv3, but it is three times smaller and twice as fast, thus suitable for embedded devices. Finally, Poly-YOLO performs instance segmentation using bounding polygons. The network is trained to detect size-independent polygons defined on a polar grid. Vertices of each polygon are being predicted with their confidence, and therefore Poly-YOLO produces polygons with a varying number of vertices.
翻訳日:2022-11-28 08:49:01 公開日:2020-05-29
# ニューラルネットワーク分類器のデータ分離可能性と分離性指標の開発

Data Separability for Neural Network Classifiers and the Development of a Separability Index ( http://arxiv.org/abs/2005.13120v2 )

ライセンス: Link先を確認
Shuyue Guan, Murray Loew, Hanseok Ko(参考訳) 機械学習では、分類器の性能は分類器モデルとデータセットの両方に依存する。 特定のニューラルネットワーク分類器では、トレーニングプロセスは使用するトレーニングセットによって異なり、トレーニング精度を高い値に高速に収束させるトレーニングデータと、より低い精度に緩やかに収束するデータがある。 この現象を定量化するために,分類器モデルとは独立した距離ベース分離性指標(dsi)を作成し,データセットの分離性を測定した。 本稿では,異なるクラスに属するデータが同じ分布に混在している状況を考えると,分類器が分離するのが最も困難であり,DSIが異なるクラスに属するデータに類似した分布が存在するか否かを示す。 提案手法を,合成データセットと実データを用いた既存の分離性/複雑度尺度と比較すると,DSIは有効な分離性尺度であることが示された。 また、データサイエンス、機械学習、ディープラーニングの分野におけるdsiの応用の可能性についても論じた。

In machine learning, the performance of a classifier depends on both the classifier model and the dataset. For a specific neural network classifier, the training process varies with the training set used; some training data make training accuracy fast converged to high values, while some data may lead to slowly converged to lower accuracy. To quantify this phenomenon, we created the Distance-based Separability Index (DSI), which is independent of the classifier model, to measure the separability of datasets. In this paper, we consider the situation where different classes of data are mixed together in the same distribution is most difficult for classifiers to separate, and we show that the DSI can indicate whether data belonging to different classes have similar distributions. When comparing our proposed approach with several existing separability/complexity measures using synthetic and real datasets, the results show the DSI is an effective separability measure. We also discussed possible applications of the DSI in the fields of data science, machine learning, and deep learning.
翻訳日:2022-11-28 08:11:36 公開日:2020-05-29
# 頭頸部癌予後予測のための正規化完全畳み込み法

A Normalized Fully Convolutional Approach to Head and Neck Cancer Outcome Prediction ( http://arxiv.org/abs/2005.14017v2 )

ライセンス: Link先を確認
William Le, Francisco Perdig\'on Romero, Samuel Kadoury(参考訳) 医学画像では、異なる形態の放射線スキャンは、臨床診断と治療計画のための様々な特徴のセットを強化するのに役立つ。 この多様性は、結果予測に使用できる情報源を豊かにする。 深層学習法は画像などの高次元入力から特徴抽出に特に適している。 本研究では、FCNプリプロセッササブネットワークを付加したCNN分類ネットワークを、公共TCIAの頭頸部がんデータセットに適用する。 FDG PET-CTスキャンによる放射線治療症例の生存予測を4つの病院で実施した。 我々は, 集積残差接続を併用したプリプロセッササブネットワークが, CTとPETの両方の入力画像を組み合わせることにより, 最先端の処理結果の改善につながることを示す。

In medical imaging, radiological scans of different modalities serve to enhance different sets of features for clinical diagnosis and treatment planning. This variety enriches the source information that could be used for outcome prediction. Deep learning methods are particularly well-suited for feature extraction from high-dimensional inputs such as images. In this work, we apply a CNN classification network augmented with a FCN preprocessor sub-network to a public TCIA head and neck cancer dataset. The training goal is survival prediction of radiotherapy cases based on pre-treatment FDG PET-CT scans, acquired across 4 different hospitals. We show that the preprocessor sub-network in conjunction with aggregated residual connection leads to improvements over state-of-the-art results when combining both CT and PET input images.
翻訳日:2022-11-27 05:45:51 公開日:2020-05-29
# 言語(技術)は力である:NLPにおける「バイアス」の批判的調査

Language (Technology) is Power: A Critical Survey of "Bias" in NLP ( http://arxiv.org/abs/2005.14050v2 )

ライセンス: Link先を確認
Su Lin Blodgett and Solon Barocas and Hal Daum\'e III and Hanna Wallach(参考訳) 我々は、nlpシステムにおける「バイアス」を分析する146の論文を調査し、その動機はしばしば曖昧で一貫性がなく、規範的推論が欠如していることを発見した。 さらに,これらの論文が提案する「バイアス」の測定・緩和のための定量的手法は,そのモチベーションとはあまり一致せず,NLP以外の文献と関係しないことが明らかとなった。 これらの知見に基づき,NLPシステムにおける「バイアス」の分析作業の指針となる3つの勧告を提案することにより,進路の始まりについて述べる。 These recommendations rest on a greater recognition of the relationships between language and social hierarchies, encouraging researchers and practitioners to articulate their conceptualizations of "bias"---i.e., what kinds of system behaviors are harmful, in what ways, to whom, and why, as well as the normative reasoning underlying these statements---and to center work around the lived experiences of members of communities affected by NLP systems, while interrogating and reimagining the power relations between technologists and such communities.

We survey 146 papers analyzing "bias" in NLP systems, finding that their motivations are often vague, inconsistent, and lacking in normative reasoning, despite the fact that analyzing "bias" is an inherently normative process. We further find that these papers' proposed quantitative techniques for measuring or mitigating "bias" are poorly matched to their motivations and do not engage with the relevant literature outside of NLP. Based on these findings, we describe the beginnings of a path forward by proposing three recommendations that should guide work analyzing "bias" in NLP systems. These recommendations rest on a greater recognition of the relationships between language and social hierarchies, encouraging researchers and practitioners to articulate their conceptualizations of "bias"---i.e., what kinds of system behaviors are harmful, in what ways, to whom, and why, as well as the normative reasoning underlying these statements---and to center work around the lived experiences of members of communities affected by NLP systems, while interrogating and reimagining the power relations between technologists and such communities.
翻訳日:2022-11-27 05:38:11 公開日:2020-05-29
# 猫の登頂は哺乳動物の動きを伴います:構成的分布意味論における低調の保存

Cats climb entails mammals move: preserving hyponymy in compositional distributional semantics ( http://arxiv.org/abs/2005.14134v2 )

ライセンス: Link先を確認
Gemma De las Cuevas and Andreas Klingler and Martha Lewis and Tim Netzer(参考訳) より多くの構造を意味するベクトルベースの表現を与えるために、正の半定値(psd)行列を使う方法がある。 これにより、単語の類似性と偽善やis-aの関係をモデル化することができる。 Psd行列は与えられたベクトル空間$M\otimes M^*$で比較的容易に学習できるが、句や文を形成するために単語を構成するためには、より大きな空間での表現が必要である。 本稿では,単語に対応するpsd行列を構成する一般的な方法を紹介する。 本稿では,動詞,形容詞,その他の機能的単語に対するpsd行列を,その文法型に一致する正の(CP)マップに引き上げることを提案する。 このリフティングはCompression, Comprと呼ばれる私たちのコンポジションルールによって実行されます。 Fuzz や Phaser(別名 KMult や BMult)のような以前の構成規則とは対照的に、Compr は偽名を保存する。 数学的には、Compr はそれ自体 CP 写像であり、したがって線型で一般には非可換である。 我々は、クモ、カップ、キャップに基づくComprの構造に関するいくつかの提案を行い、様々な構成規則を生成する。 我々はこれらのルールを小文包含データセット上でテストし、Fuzz と Phaser の性能よりもいくつかの改善が見られた。

To give vector-based representations of meaning more structure, one approach is to use positive semidefinite (psd) matrices. These allow us to model similarity of words as well as the hyponymy or is-a relationship. Psd matrices can be learnt relatively easily in a given vector space $M\otimes M^*$, but to compose words to form phrases and sentences, we need representations in larger spaces. In this paper, we introduce a generic way of composing the psd matrices corresponding to words. We propose that psd matrices for verbs, adjectives, and other functional words be lifted to completely positive (CP) maps that match their grammatical type. This lifting is carried out by our composition rule called Compression, Compr. In contrast to previous composition rules like Fuzz and Phaser (a.k.a. KMult and BMult), Compr preserves hyponymy. Mathematically, Compr is itself a CP map, and is therefore linear and generally non-commutative. We give a number of proposals for the structure of Compr, based on spiders, cups and caps, and generate a range of composition rules. We test these rules on a small sentence entailment dataset, and see some improvements over the performance of Fuzz and Phaser.
翻訳日:2022-11-27 05:37:55 公開日:2020-05-29
# JointMap:Eコマース検索におけるインテント階層のモデリングのためのジョイントクエリインテント理解

JointMap: Joint Query Intent Understanding For Modeling Intent Hierarchies in E-commerce Search ( http://arxiv.org/abs/2005.13783v2 )

ライセンス: Link先を確認
Ali Ahmadvand and Surya Kallumadi and Faizan Javed and Eugene Agichtein(参考訳) ユーザのクエリインテントの正確な理解は、クエリスコープやランク付けといったダウンストリームタスクのパフォーマンス向上に役立つ。 eコマース分野において、最近のクエリ理解の研究は、製品カテゴリマッピングへのクエリに焦点を当てている。 しかし、少数のクエリ(2019年のWebサイト1.5%または3300万クエリ)は、それらに関連する非商業的な意図を持っている。 これらの意図は、通常、割引、店時間、インストールガイドなどのニーズを求める非商業的情報と関連付けられる。 本稿では,2つの高レベルユーザインテントタスクを同時に学習するディープラーニングモデルであるjoint query intent understanding (jointmap)を提案する。 1)クエリの商業目的対非商業目的の特定、及び 2) 分類における関連する製品カテゴリのセットを製品クエリに関連付ける。 jointmapモデルは、これら2つの関連するタスクの間に存在する転送バイアスを、共同学習プロセスを通じて活用することで機能する。 ラベル付きデータセットの計算は高価で時間を要するため,アクティブラーニングモデルと連動して,高品質なトレーニングデータセットを生成する遠隔監視手法を提案する。 ジョイントマップの有効性を示すために,大規模商用webサイトから収集した検索クエリを用いる。 その結果,JointMapは「商用対非商用」の意図予測と製品カテゴリマッピングを,最先端のディープラーニング手法よりも平均で2.3%,10%改善した。 当社の調査結果は、eコマース検索エンジンの意図階層をモデル化する有望な方向性を示唆している。

An accurate understanding of a user's query intent can help improve the performance of downstream tasks such as query scoping and ranking. In the e-commerce domain, recent work in query understanding focuses on the query to product-category mapping. But, a small yet significant percentage of queries (in our website 1.5% or 33M queries in 2019) have non-commercial intent associated with them. These intents are usually associated with non-commercial information seeking needs such as discounts, store hours, installation guides, etc. In this paper, we introduce Joint Query Intent Understanding (JointMap), a deep learning model to simultaneously learn two different high-level user intent tasks: 1) identifying a query's commercial vs. non-commercial intent, and 2) associating a set of relevant product categories in taxonomy to a product query. JointMap model works by leveraging the transfer bias that exists between these two related tasks through a joint-learning process. As curating a labeled data set for these tasks can be expensive and time-consuming, we propose a distant supervision approach in conjunction with an active learning model to generate high-quality training data sets. To demonstrate the effectiveness of JointMap, we use search queries collected from a large commercial website. Our results show that JointMap significantly improves both "commercial vs. non-commercial" intent prediction and product category mapping by 2.3% and 10% on average over state-of-the-art deep learning methods. Our findings suggest a promising direction to model the intent hierarchies in an e-commerce search engine.
翻訳日:2022-11-27 05:27:11 公開日:2020-05-29
# エンドユーザのためのサービスとしての機械学習の並列化

Parallelizing Machine Learning as a Service for the End-User ( http://arxiv.org/abs/2005.14080v2 )

ライセンス: Link先を確認
Daniela Loreti and Marco Lippi and Paolo Torroni(参考訳) MLアプリケーションがより広く普及するにつれて、完全にトレーニングされたシステムは広く一般に公開され、エンドユーザは自身のデータでクエリを送信し、結果を効率的に取得することができる。 このようなサービスがますます洗練されていく中、新しい課題はユーザーベースを成長させる方法だ。 本稿では,典型的なMLシステムパイプラインの並列化に活用可能な分散アーキテクチャを提案する。 本稿では,テキストマイニングサービスによるケーススタディを提案し,その手法を多くの類似アプリケーションに一般化する方法について議論する。 分散アーキテクチャによって促進される計算利得の意義を,広範な実験的評価によって実証する。

As ML applications are becoming ever more pervasive, fully-trained systems are made increasingly available to a wide public, allowing end-users to submit queries with their own data, and to efficiently retrieve results. With increasingly sophisticated such services, a new challenge is how to scale up to evergrowing user bases. In this paper, we present a distributed architecture that could be exploited to parallelize a typical ML system pipeline. We propose a case study consisting of a text mining service and discuss how the method can be generalized to many similar applications. We demonstrate the significance of the computational gain boosted by the distributed architecture by way of an extensive experimental evaluation.
翻訳日:2022-11-27 04:42:58 公開日:2020-05-29
# 不規則時系列に対する一般化解釈可能なシェープレット

Generalised Interpretable Shapelets for Irregular Time Series ( http://arxiv.org/abs/2005.13948v2 )

ライセンス: Link先を確認
Patrick Kidger, James Morrill, Terry Lyons(参考訳) シェープレット変換(shapelet transform)は、時系列の特徴抽出の一形態であり、時系列は「シェープレット」の集合のそれぞれと類似性によって記述される。 しかし、以前は、定期的な間隔で完全に観測された時系列に制限されることや、効率的なトレーニングと解釈可能性のどちらかを選択することなど、多くの制限に苦しめられていた。 ここで,本手法を連続時間に拡張し,不規則サンプリング部分観測時系列の一般的な場合を扱う。 さらに, 解釈性を犠牲にすることなく, 簡便な正規化ペナルティを効率的に訓練できることを示す。 連続時間定式化により、各形状(以前は離散物体)の長さを微分可能な方法で学習することができる。 最後に,時系列間の類似度尺度を学習擬メトリックに一般化できることを示す。 例えば、数字5,6がボトムループのキラリティーによって区別されうること、音声音声の分類にある種のスペクトルギャップが存在することを発見した。

The shapelet transform is a form of feature extraction for time series, in which a time series is described by its similarity to each of a collection of `shapelets'. However it has previously suffered from a number of limitations, such as being limited to regularly-spaced fully-observed time series, and having to choose between efficient training and interpretability. Here, we extend the method to continuous time, and in doing so handle the general case of irregularly-sampled partially-observed multivariate time series. Furthermore, we show that a simple regularisation penalty may be used to train efficiently without sacrificing interpretability. The continuous-time formulation additionally allows for learning the length of each shapelet (previously a discrete object) in a differentiable manner. Finally, we demonstrate that the measure of similarity between time series may be generalised to a learnt pseudometric. We validate our method by demonstrating its performance and interpretability on several datasets; for example we discover (purely from data) that the digits 5 and 6 may be distinguished by the chirality of their bottom loop, and that a kind of spectral gap exists in spoken audio classification.
翻訳日:2022-11-27 04:33:50 公開日:2020-05-29
# 人工ニューラルネットワークを用いた乳癌検診 : 包括的考察

Artificial Neural Network Based Breast Cancer Screening: A Comprehensive Review ( http://arxiv.org/abs/2006.01767v1 )

ライセンス: Link先を確認
Subrato Bharati, Prajoy Podder, M. Rubaiyat Hossain Mondal(参考訳) 乳癌は女性にとって一般的な致命的な病気である。 乳がん患者の予後を改善するためには早期診断と診断が必要である。 乳がんの予測には、様々な医療画像モダリティを用いて、いくつかの自動化システムがすでに開発されている。 本稿では,マンモグラフィによる乳癌の診断のためのニューラルネットワーク(ann)モデルに関する文献を体系的に検討する。 本稿では、spyking neural network (snn)、deep belief network (dbn)、convolutional neural network (cnn)、multiple neural network (mlnn)、stacked autoencoders (sae)、stacked de-noising autoencoders (sdae)を含む異なるanモデルの利点と限界について述べる。 このレビューは、乳がん検出に関する研究が、いくつかの公開データセットに異なるディープラーニングモデルを適用していることも示している。 モデルの性能を比較するために、既存の研究では精度、精度、リコールなど様々な指標が用いられた。 その結果,cnnアルゴリズムの残留ニューラルネットワーク(resnet)-50とresnet-101モデルにより,最適性能が得られた。

Breast cancer is a common fatal disease for women. Early diagnosis and detection is necessary in order to improve the prognosis of breast cancer affected people. For predicting breast cancer, several automated systems are already developed using different medical imaging modalities. This paper provides a systematic review of the literature on artificial neural network (ANN) based models for the diagnosis of breast cancer via mammography. The advantages and limitations of different ANN models including spiking neural network (SNN), deep belief network (DBN), convolutional neural network (CNN), multilayer neural network (MLNN), stacked autoencoders (SAE), and stacked de-noising autoencoders (SDAE) are described in this review. The review also shows that the studies related to breast cancer detection applied different deep learning models to a number of publicly available datasets. For comparing the performance of the models, different metrics such as accuracy, precision, recall, etc. were used in the existing studies. It is found that the best performance was achieved by residual neural network (ResNet)-50 and ResNet-101 models of CNN algorithm.
翻訳日:2022-11-27 00:09:37 公開日:2020-05-29
# LHCにおけるアトラスのような実験における異常検出のためのニューラルネットワークの有効性の検討

Investigation Into the Viability of Neural Networks as a Means for Anomaly Detection in Experiments Like Atlas at the LHC ( http://arxiv.org/abs/2006.04533v1 )

ライセンス: Link先を確認
Sully Billingsley(参考訳) しかしLarge Hadron ColliderのAtlas実験では、ペタバイトのデータが生成されるが、これらすべてが必ずしも興味深いわけではない。 この問題は異常検出のプロセスによって解決することができる。 本論文では,実験における異常検出の手段としてのニューラルネットワークの実用性について,DarkMachinesプロジェクトによって生成されたモンテカルロシミュレーションデータを用いて,AtlasのようなLHCのニューラルネットワークアーキテクチャの有効性について検討する。 このデータは、Standard ModelとBeyond Standard Modelイベントの複製を目的としている。 効果的なモデルを見つけることで、Atlas実験はより効果的になり、興味深いイベントがほとんど失われる。

Petabytes of data are generated at the Atlas experiment at the Large Hadron Collider however not all of it is necessarily interesting, so what do we do with all of this data and how do we find these interesting needles in an uninteresting haystack. This problem can possibly be solved through the process of anomaly detection. In this document, Investigation Into the Viability of Neural Networks as a Means for Anomaly Detection in Experiments Like Atlas at the LHC the effectiveness of different types of neural network architectures as anomaly detectors are researched using Monte Carlo simulated data generated by the DarkMachines project. This data is meant to replicate Standard Model and Beyond Standard Model events. By finding an effective model, the Atlas experiment can become more effective and fewer interesting events will be lost.
翻訳日:2022-11-27 00:08:23 公開日:2020-05-29
# 顔匿名化に基づくプライバシー保護型ドローンパトロールシステム

Privacy-Protection Drone Patrol System based on Face Anonymization ( http://arxiv.org/abs/2005.14390v1 )

ライセンス: Link先を確認
Harim Lee, Myeung Un Kim, Yeongjun Kim, Hyeonsu Lyu, and Hyun Jong Yang(参考訳) ロボット市場は大幅に成長し、2024年には2019年の1.5倍に成長すると予想されている。 ロボットは機動性のおかげでセキュリティ企業の注目を集めている。 最近、セキュリティロボットにとって、無人航空機(uav)は、その利点を強調して急速に登場している。 UAVにとって、Droneは代表的なモデルであり、高解像度カメラのような様々なセンサーから構成されるいくつかの利点がある。 したがって、Droneはモバイル監視ロボットとして最も適している。 高解像度カメラやモビリティといった魅力的な利点は、二重刃の剣、すなわちプライバシー侵害である。 監視ドローンは、高い解像度でビデオを撮ってその役割を果たすが、それらは多くのプライバシーに敏感な情報を含んでいる。 無差別射撃は、露出を非常に嫌う人々にとって重要な問題である。 プライバシー侵害に対処するため、この研究は対面型ドローンパトロールシステムを提案する。 本システムでは、映像中の人物の顔は、顔成分が維持されている別の顔に変換される。 プライバシ保護システムを構築するために、我々は最新の生成的敵ネットワークフレームワークを採用し、それらのフレームワークの損失を若干修正した。 顔匿名化アプローチは,様々な顔画像と映像データセットを用いて評価する。 さらに,高分解能カメラ,コンパニオンコンピュータ,およびドローン制御コンピュータからなるカスタマイズされたドローンを用いて評価を行う。 最後に,ロボットの認識性能,すなわち同時局所化とマッピングを保ちながら,顔認識アルゴリズムを用いてプライバシセンシティブな情報を保護できることを確認する。

The robot market has been growing significantly and is expected to become 1.5 times larger in 2024 than what it was in 2019. Robots have attracted attention of security companies thanks to their mobility. These days, for security robots, unmanned aerial vehicles (UAVs) have quickly emerged by highlighting their advantage: they can even go to any hazardous place that humans cannot access. For UAVs, Drone has been a representative model and has several merits to consist of various sensors such as high-resolution cameras. Therefore, Drone is the most suitable as a mobile surveillance robot. These attractive advantages such as high-resolution cameras and mobility can be a double-edged sword, i.e., privacy infringement. Surveillance drones take videos with high-resolution to fulfill their role, however, those contain a lot of privacy sensitive information. The indiscriminate shooting is a critical issue for those who are very reluctant to be exposed. To tackle the privacy infringement, this work proposes face-anonymizing drone patrol system. In this system, one person's face in a video is transformed into a different face with facial components maintained. To construct our privacy-preserving system, we have adopted the latest generative adversarial networks frameworks and have some modifications on losses of those frameworks. Our face-anonymzing approach is evaluated with various public face-image and video dataset. Moreover, our system is evaluated with a customized drone consisting of a high-resolution camera, a companion computer, and a drone control computer. Finally, we confirm that our system can protect privacy sensitive information with our face-anonymzing algorithm while preserving the performance of robot perception, i.e., simultaneous localization and mapping.
翻訳日:2022-11-27 00:07:53 公開日:2020-05-29
# 眼球カメラを用いたペグホール挿入のためのSim2Real

Sim2Real for Peg-Hole Insertion with Eye-in-Hand Camera ( http://arxiv.org/abs/2005.14401v1 )

ライセンス: Link先を確認
Damian Bogunowicz, Aleksandr Rybnikov, Komal Vendidandi and Fedor Chervinskii(参考訳) ペグホールの挿入はロボティクスでよく研究されている問題だが、柔軟性と一般化能力に関しては、ロボットにとっては依然として課題だ。 タスクの完了には、現実世界の複雑さに対処するためにいくつかのモダリティを組み合わせる必要がある。 本研究では,問題の視覚的な側面に着目し,シミュレータ内で挿入タスクを学習する手法を採用する。 我々は、Deep Reinforcement Learningを使用して、エンドツーエンドのポリシーを学習し、学習したモデルを追加の微調整なしで実際のロボットに転送する。 RGB-Dとジョイント情報(プロレセプション)のみを取り入れたトランスファーポリシーは,実際のロボットにおいて良好に動作可能であることを示す。

Even though the peg-hole insertion is one of the well-studied problems in robotics, it still remains a challenge for robots, especially when it comes to flexibility and the ability to generalize. Successful completion of the task requires combining several modalities to cope with the complexity of the real world. In our work, we focus on the visual aspect of the problem and employ the strategy of learning an insertion task in a simulator. We use Deep Reinforcement Learning to learn the policy end-to-end and then transfer the learned model to the real robot, without any additional fine-tuning. We show that the transferred policy, which only takes RGB-D and joint information (proprioception) can perform well on the real robot.
翻訳日:2022-11-27 00:07:30 公開日:2020-05-29
# QRコードを用いたブラインド最適経路探索のための効率的な室内ナビゲーション手法

An Efficient Indoor Navigation Technique To Find Optimal Route For Blinds Using QR Codes ( http://arxiv.org/abs/2005.14517v1 )

ライセンス: Link先を確認
Affan Idrees, Zahid Iqbal, Maria Ishfaq(参考訳) blind navigation(ブラインドナビゲーション)は、視覚障害者がandroidスマートフォンを、オーディオ形式で指示された屋内ナビゲーションに簡単に使用できるアクセシビリティアプリケーションである。 我々は,qrコードを用いたブラインド用屋内ナビゲーションアプリケーションであるプロトタイプを提案した。 アンドロイド・スマートフォン向けに開発されており、ナビゲーションのためのハードウェアは必要ない。 視覚障害者のための事前定義された経路の自動ナビゲーション支援を提供する。 QRコードは、現在の位置検出とナビゲーションの入力として機能する特定の距離の後、フロアセクションに配置される。 QRコードがスキャンされるたびに、現在の位置情報をユーザに提供し、目的地を選択するように要求し、パス探索アルゴリズムを使用して最適かつ最も短いパスを提供する。 ナビゲーション中、提案された経路からのずれが検出されると、ユーザを誘導し、現在の経路と生成された経路とを比較して正しい経路に戻す。 アプリケーション全体の命令はすべて、ユーザにオーディオ形式で提供される。 アプリケーションのインターフェースは盲人向けによく構築されており、スマートフォンはユーザフレンドリーで、盲人でも使える。 ユーザは、特定の入力や操作のためのユーザフレンドリなジェスチャーセットを通じて、アプリケーションと対話する。 最終的に、異なる技術アプローチの比較を行い、我々のアプローチはよりユーザフレンドリで、コスト効率が良く、より正確な結果が得られると結論付けました。

Blind navigation is an accessibility application that enables blind to use an android Smartphone in an easy way for indoor navigation with instructions in audio form. We have proposed a prototype which is an indoor navigation application for blinds that uses QR codes. It is developed for android Smart phones and does not require any additional hardware for navigation. It provides automatic navigational assistance on pre-defined paths for blind. QR codes are placed on the floor sections after specific distance that acts as an input for current location detection and navigation. Whenever a QR code is scanned it provides the user with the information of the current location and asks the user to select the destination and then offers optimal and shortest path using path finding algorithms. During navigation whenever the deviation from the proposed path is detected it prompts the user and guides back to the right path by comparing the current path with the generated path. All of the instructions throughout the application are provided in audio form to the user. The interface of the application is well built for blinds which makes the smart phones user-friendly and useable for blind people. The user interacts with the application through a specific set of user-friendly gestures for specific inputs and operations. At the end, we have performed comparison between different state of art approaches and concluded that our approach is more user friendly, cost effective and produced more accurate results.
翻訳日:2022-11-27 00:07:16 公開日:2020-05-29
# データ駆動バイオメカニカルモデルを用いた非リギッド体積と表面登録

Non-Rigid Volume to Surface Registration using a Data-Driven Biomechanical Model ( http://arxiv.org/abs/2005.14695v1 )

ライセンス: Link先を確認
Micha Pfeiffer, Carina Riediger, Stefan Leger, Jens-Peter K\"uhn, Danilo Seppelt, Ralf-Thorsten Hoffmann, J\"urgen Weitz and Stefanie Speidel(参考訳) 非リギッド登録はソフトトイトナビゲーションの重要なコンポーネントである。 腹腔鏡下肝切除術を施行し,術前CT検査で得られた臓器モデルを腹腔鏡下に再構成した術中部分臓器表面に登録した。 これは、組織の性質や境界条件など、術中データのばらばらで騒がしいこと、リアルタイムな要求、多くの未知の問題のために難しい課題である。 さらに, 術前と術中データとの対応の確立は非常に困難であり, 肝には通常, 異なる表面的特徴が欠如しており, 使用する画像モダリティは, 非常に異なる種類のノイズに悩まされる。 本研究では,畳み込みニューラルネットワークを訓練し,表面対応の探索と非剛性登録の両方を1ステップで行う。 このネットワークは、ランダムに生成された臓器のような構造の物理的に正確な生体力学的シミュレーションで訓練されている。 これにより、ネットワークは再トレーニングを必要とせずに、すぐに新しい患者臓器に一般化できる。 トレーニング中の術中表面に様々なノイズを付加し,術中データに対するネットワークの堅牢化を図る。 推測中、ネットワークは、術前の容積と一部の術中表面とが一致する変位場を出力する。 複数の実験において,ネットワークは高い推論速度を維持しながら実データによく変換されることを示した。 私たちのコードはオンラインで利用可能です。

Non-rigid registration is a key component in soft-tissue navigation. We focus on laparoscopic liver surgery, where we register the organ model obtained from a preoperative CT scan to the intraoperative partial organ surface, reconstructed from the laparoscopic video. This is a challenging task due to sparse and noisy intraoperative data, real-time requirements and many unknowns - such as tissue properties and boundary conditions. Furthermore, establishing correspondences between pre- and intraoperative data can be extremely difficult since the liver usually lacks distinct surface features and the used imaging modalities suffer from very different types of noise. In this work, we train a convolutional neural network to perform both the search for surface correspondences as well as the non-rigid registration in one step. The network is trained on physically accurate biomechanical simulations of randomly generated, deforming organ-like structures. This enables the network to immediately generalize to a new patient organ without the need to re-train. We add various amounts of noise to the intraoperative surfaces during training, making the network robust to noisy intraoperative data. During inference, the network outputs the displacement field which matches the preoperative volume to the partial intraoperative surface. In multiple experiments, we show that the network translates well to real data while maintaining a high inference speed. Our code is made available online.
翻訳日:2022-11-27 00:06:56 公開日:2020-05-29
# GANを用いた脳波連続音声認識の改良

Improving EEG based continuous speech recognition using GAN ( http://arxiv.org/abs/2006.01260v1 )

ライセンス: Link先を確認
Gautam Krishna, Co Tran, Mason Carnahan, Ahmed Tewfik(参考訳) 本稿では、GAN(Generative Adversarial Network)を用いて、生の脳波特徴からより有意義な脳波特徴(EEG)を生成し、脳波に基づく連続音声認識システムの性能を向上させることを実証する。 テスト時間実験のためにデータセットを使用して,[1]で著者が示した結果を改善するとともに,他のケースでは,その結果に匹敵する結果が得られた。 提案手法は, 追加のセンサ情報を用いずに実装できるが, [1] 著者は脳波に基づく連続音声認識システムの性能を向上させるために, 音響情報や調音情報などの追加機能を用いた。

In this paper we demonstrate that it is possible to generate more meaningful electroencephalography (EEG) features from raw EEG features using generative adversarial networks (GAN) to improve the performance of EEG based continuous speech recognition systems. We improve the results demonstrated by authors in [1] using their data sets for for some of the test time experiments and for other cases our results were comparable with theirs. Our proposed approach can be implemented without using any additional sensor information, whereas in [1] authors used additional features like acoustic or articulatory information to improve the performance of EEG based continuous speech recognition systems.
翻訳日:2022-11-27 00:06:14 公開日:2020-05-29
# 脳波に基づく音声認識システムにおける音声認識の理解効果

Understanding effect of speech perception in EEG based speech recognition systems ( http://arxiv.org/abs/2006.01261v1 )

ライセンス: Link先を確認
Gautam Krishna, Co Tran, Mason Carnahan, Ahmed Tewfik(参考訳) 音声と平行に記録された脳波信号を用いて、孤立的かつ連続的な音声認識を行う。 発話の過程では、自身の音声も聞き取り、この音声知覚は、記録された脳波信号にも反映される。 本稿では,よりロバストなeegベースの音声認識システムを設計するために,脳波信号から音声知覚成分を分離できるかどうかを検討する。 さらに、受動的聴取と並行して記録された脳波信号と並行して記録された脳波信号と、非常に低い正規化ルート平均二乗誤差(RMSE)とを同時に予測する。 脳波信号を用いた孤立音声認識と連続音声認識の両方を聴取, 発話, 従来のコネクショニスト時間分類 (CTC) モデルを用いて, [1] の著者がデータセットを用いて示す結果を改善した。

The electroencephalography (EEG) signals recorded in parallel with speech are used to perform isolated and continuous speech recognition. During speaking process, one also hears his or her own speech and this speech perception is also reflected in the recorded EEG signals. In this paper we investigate whether it is possible to separate out this speech perception component from EEG signals in order to design more robust EEG based speech recognition systems. We further demonstrate predicting EEG signals recorded in parallel with speaking from EEG signals recorded in parallel with passive listening and vice versa with very low normalized root mean squared error (RMSE). We finally demonstrate both isolated and continuous speech recognition using EEG signals recorded in parallel with listening, speaking and improve the previous connectionist temporal classification (CTC) model results demonstrated by authors in [1] using their data set.
翻訳日:2022-11-27 00:06:02 公開日:2020-05-29
# 脳波からの異なる音響特性の予測と脳波からの直接合成に向けて

Predicting Different Acoustic Features from EEG and towards direct synthesis of Audio Waveform from EEG ( http://arxiv.org/abs/2006.01262v1 )

ライセンス: Link先を確認
Gautam Krishna, Co Tran, Mason Carnahan, Ahmed Tewfik(参考訳) 筆者らは,脳波から最初に音響的特徴を予測し,グリフィンリム再構成アルゴリズムを用いて予測した音響的特徴から音声を再構成する電気脳波(eeg)特徴から音声を合成する予備的結果を示した。 本稿では,まず生脳波波形信号を入力とし,直接音声波形を出力として生成するディープラーニングモデルを提案する。 次に,脳波から16種類の音響特徴を推定する。 本稿では,音声と聞き取りの両条件について検討する。 本稿では,音声知覚および生成中に記録された非侵襲性神経脳波信号と音響的特徴の関連について述べる。

In [1,2] authors provided preliminary results for synthesizing speech from electroencephalography (EEG) features where they first predict acoustic features from EEG features and then the speech is reconstructed from the predicted acoustic features using griffin lim reconstruction algorithm. In this paper we first introduce a deep learning model that takes raw EEG waveform signals as input and directly produces audio waveform as output. We then demonstrate predicting 16 different acoustic features from EEG features. We demonstrate our results for both spoken and listen condition in this paper. The results presented in this paper shows how different acoustic features are related to non-invasive neural EEG signals recorded during speech perception and production.
翻訳日:2022-11-27 00:05:48 公開日:2020-05-29
# Attention-guided Framework を用いた肺塞栓症の自動診断 : 大規模研究

Automatic Diagnosis of Pulmonary Embolism Using an Attention-guided Framework: A Large-scale Study ( http://arxiv.org/abs/2006.00074v1 )

ライセンス: Link先を確認
Luyao Shi, Deepta Rajan, Shafiq Abedin, Manikanta Srikar Yellapragada, David Beymer, Ehsan Dehghan(参考訳) 肺塞栓症 (PE) は、高い死亡率と致死性を伴う致命的な疾患である。 迅速な診断と治療活動の即時開始が重要である。 胸部CTでPEを検出するための深層学習モデルを2段階のトレーニング戦略を用いて検討した。 まず, 残差畳み込みニューラルネットワーク(resnet)を注釈付き2次元画像を用いて訓練した。 分類損失に加えて,ネットワークがPEに注意を集中するのを助けるために,トレーニング中に注意損失が加えられた。 次に、リカレントネットワークを使用して、事前トレーニングされたResNetが提供する機能を通じて順次スキャンし、PEを検出する。 この組み合わせにより、ネットワークは、限られたピクセルレベルアノテートされた画像セットと、容易に得られる患者レベルの画像ラベルペアの両方を使って訓練することができる。 1,670点のアノテーション付き研究と10,000点以上のラベル付き研究をトレーニングに使用した。 2,160名の患者を対象にした実験により,roc曲線 (auc) 下の面積0.812。 提案したフレームワークは、PE病変の可能性を示唆する局所的な注意マップを提供することもできるため、放射線医が診断プロセスを加速するのに役立つ可能性がある。

Pulmonary Embolism (PE) is a life-threatening disorder associated with high mortality and morbidity. Prompt diagnosis and immediate initiation of therapeutic action is important. We explored a deep learning model to detect PE on volumetric contrast-enhanced chest CT scans using a 2-stage training strategy. First, a residual convolutional neural network (ResNet) was trained using annotated 2D images. In addition to the classification loss, an attention loss was added during training to help the network focus attention on PE. Next, a recurrent network was used to scan sequentially through the features provided by the pre-trained ResNet to detect PE. This combination allows the network to be trained using both a limited and sparse set of pixel-level annotated images and a large number of easily obtainable patient-level image-label pairs. We used 1,670 sparsely annotated studies and more than 10,000 labeled studies in our training. On a test set with 2,160 patient studies, the proposed method achieved an area under the ROC curve (AUC) of 0.812. The proposed framework is also able to provide localized attention maps that indicate possible PE lesions, which could potentially help radiologists accelerate the diagnostic process.
翻訳日:2022-11-26 23:59:01 公開日:2020-05-29
# 文脈的GANを用いた合成病変の乳がん分類の改善

Synthesizing lesions using contextual GANs improves breast cancer classification on mammograms ( http://arxiv.org/abs/2006.00086v1 )

ライセンス: Link先を確認
Eric Wu, Kevin Wu, William Lotter(参考訳) データ不足とクラス不均衡は、多くの機械学習アプリケーションから医療への根本的な課題である。 マンモグラフィーにおける乳癌の分類はこれらの課題を例示しており、検診では腫瘍率は約0.5%であり、悪性症例では比較的小さな病変(画像の約1%)が混在している。 同時に、検診マンモグラフィの普及は、訓練に使用する非がん検査を潜在的に豊富に生み出す。 これらの特徴は、がん患者に過度に当てはまる一方、非がんデータに過小評価される。 本稿では, マンモグラムの病変を現実的に合成, 除去できるデータ拡張のための, GAN(generative adversarial network)モデルを提案する。 セルフアテンションとセミ教師付き学習コンポーネントにより、u-netベースのアーキテクチャはマンモグラフィに必要な高分解能(256x256px)出力を生成することができる。 実際のマンモグラムパッチを用いて, GAN 生成サンプルを用いてトレーニングセットを増強すると, 悪性度分類性能が有意に向上することがわかった。 全体として、我々のアルゴリズムの実証結果と他の医療画像パラダイムとの関連性は、さらなる実りある応用の可能性を示している。

Data scarcity and class imbalance are two fundamental challenges in many machine learning applications to healthcare. Breast cancer classification in mammography exemplifies these challenges, with a malignancy rate of around 0.5% in a screening population, which is compounded by the relatively small size of lesions (~1% of the image) in malignant cases. Simultaneously, the prevalence of screening mammography creates a potential abundance of non-cancer exams to use for training. Altogether, these characteristics lead to overfitting on cancer cases, while under-utilizing non-cancer data. Here, we present a novel generative adversarial network (GAN) model for data augmentation that can realistically synthesize and remove lesions on mammograms. With self-attention and semi-supervised learning components, the U-net-based architecture can generate high resolution (256x256px) outputs, as necessary for mammography. When augmenting the original training set with the GAN-generated samples, we find a significant improvement in malignancy classification performance on a test set of real mammogram patches. Overall, the empirical results of our algorithm and the relevance to other medical imaging paradigms point to potentially fruitful further applications.
翻訳日:2022-11-26 23:58:44 公開日:2020-05-29
# 主題別医療データを用いた解剖学的予測

Anatomical Predictions using Subject-Specific Medical Data ( http://arxiv.org/abs/2006.00090v1 )

ライセンス: Link先を確認
Marianne Rakic, John Guttag and Adrian V. Dalca(参考訳) 脳解剖学における経時的変化は、治療設計や科学的分析に重要な洞察を与える。 個人の脳MRIが時間とともにどのように変化するかを予測する手法を提案する。 畳み込みニューラルネットワークを用いて,関数を用いて予測する2相変形場を用いて変化をモデル化する。 予測された変形場が与えられると、ベースラインスキャンは、将来に脳スキャンを予測するために歪められる。 本手法をadniコホートを用いて実演し,モデル変種と主題別情報による性能への影響を解析した。 モデルが良好な予測を提供し,外部臨床データが予測を改善することを示す。

Changes over time in brain anatomy can provide important insight for treatment design or scientific analyses. We present a method that predicts how a brain MRI for an individual will change over time. We model changes using a diffeomorphic deformation field that we predict using function using convolutional neural networks. Given a predicted deformation field, a baseline scan can be warped to give a prediction of the brain scan at a future time. We demonstrate the method using the ADNI cohort, and analyze how performance is affected by model variants and the subject-specific information provided. We show that the model provides good predictions and that external clinical data can improve predictions.
翻訳日:2022-11-26 23:58:26 公開日:2020-05-29
# 動的学習における公平性とバイアスの制御

Controlling Fairness and Bias in Dynamic Learning-to-Rank ( http://arxiv.org/abs/2005.14713v1 )

ライセンス: Link先を確認
Marco Morik, Ashudeep Singh, Jessica Hong, Thorsten Joachims(参考訳) ランキングは、多くのオンラインプラットフォームがユーザーとアイテム(ニュース、製品、音楽、ビデオなど)をマッチングする主要なインターフェースである。 これらの2つの市場では、ユーザーがランキングからユーティリティを引き出すだけでなく、ランキングはアイテムプロバイダ(パブリッシャー、販売者、アーティスト、スタジオなど)のユーティリティ(露出、収益など)を決定する。 ほぼすべての学習からランクのアルゴリズムが行なっているように、ミオプティックにユーザに対してユーティリティを最適化することは、アイテムプロバイダにとって不公平である、とすでに指摘されている。 そこで本稿では,商品群(例えば,同一出版社による記事,同一アーティストによるトラック)にメリットに基づく公正性を保証するための,学習からランクへのアプローチを提案する。 特に,暗黙のフィードバックデータからランク付け関数を同時に学習しながら,償却されたグループフェアネスの概念を保証する学習アルゴリズムを提案する。 このアルゴリズムは、公平性と有用性の両方のために偏りのない推定器を統合するコントローラの形をとり、より多くのデータが利用可能になるにつれて両方を動的に適応させる。 厳密な理論的基礎と収束保証に加えて、このアルゴリズムが極めて実用的かつ堅牢であることは実証的に明らかである。

Rankings are the primary interface through which many online platforms match users to items (e.g. news, products, music, video). In these two-sided markets, not only the users draw utility from the rankings, but the rankings also determine the utility (e.g. exposure, revenue) for the item providers (e.g. publishers, sellers, artists, studios). It has already been noted that myopically optimizing utility to the users, as done by virtually all learning-to-rank algorithms, can be unfair to the item providers. We, therefore, present a learning-to-rank approach for explicitly enforcing merit-based fairness guarantees to groups of items (e.g. articles by the same publisher, tracks by the same artist). In particular, we propose a learning algorithm that ensures notions of amortized group fairness, while simultaneously learning the ranking function from implicit feedback data. The algorithm takes the form of a controller that integrates unbiased estimators for both fairness and utility, dynamically adapting both as more data becomes available. In addition to its rigorous theoretical foundation and convergence guarantees, we find empirically that the algorithm is highly practical and robust.
翻訳日:2022-11-26 23:57:35 公開日:2020-05-29
# ノード分類におけるノード埋め込み手法の評価プロセス

A Process for the Evaluation of Node Embedding Methods in the Context of Node Classification ( http://arxiv.org/abs/2005.14683v1 )

ライセンス: Link先を確認
Christoph Martin, Meike Riebeling(参考訳) ノード埋め込み手法は、機械学習モデルの特徴として使用される潜在的な低次元表現を見つける。 ここ数年、これらの手法は手動の特徴工学の代替として非常に人気がある。 筆者らはノード埋め込み手法の評価に様々なアプローチを採用しているため、既存の研究を効率的に正確に比較することはめったにない。 本稿では,ノードの組込み手順w.r.t.ノード分類を公平かつ客観的に評価するプロセスを開発することでこの問題に対処する。 このプロセスは、研究者や実践者が再現可能な方法で新しい方法と既存の方法を比較するのを支援する。 このプロセスを4つの人気のあるノード埋め込みメソッドに適用し、貴重な観察を行う。 ハイパーパラメータの適切な組み合わせにより、下流機械学習タスクと埋め込みアルゴリズムの実行時間に好意的な低次元の埋め込みであっても、優れたパフォーマンスを実現することができる。 複数のハイパーパラメータの組み合わせも同様のパフォーマンスを得る。 したがって、多くの場合、妥当なパフォーマンスを達成するために、広範囲で時間を要する検索は不要である。

Node embedding methods find latent lower-dimensional representations which are used as features in machine learning models. In the last few years, these methods have become extremely popular as a replacement for manual feature engineering. Since authors use various approaches for the evaluation of node embedding methods, existing studies can rarely be efficiently and accurately compared. We address this issue by developing a process for a fair and objective evaluation of node embedding procedures w.r.t. node classification. This process supports researchers and practitioners to compare new and existing methods in a reproducible way. We apply this process to four popular node embedding methods and make valuable observations. With an appropriate combination of hyperparameters, good performance can be achieved even with embeddings of lower dimensions, which is positive for the run times of the downstream machine learning task and the embedding algorithm. Multiple hyperparameter combinations yield similar performance. Thus, no extensive, time-consuming search is required to achieve reasonable performance in most cases.
翻訳日:2022-11-26 23:57:14 公開日:2020-05-29
# 聴覚教育を改善する仮想3次元教育環境の設計と実装

Design and Implementation of a Virtual 3D Educational Environment to improve Deaf Education ( http://arxiv.org/abs/2006.00114v1 )

ライセンス: Link先を確認
Abdelaziz Lakhfif(参考訳) NLP、知識表現、コンピュータグラフィック技術の進歩は、聴覚障害者のための教育ツールの開発に関する洞察を与えてくれる。 教科書は教室の普通の生徒を支援するために設計されており、そのほとんどが聴覚障害者に向いていないため、聴覚障害者のための実際の教材やツールにはいくつかの問題がある。 仮想現実(vr)技術は、聴覚障害者の教育において優れたツールであり、有望な枠組みであると思われる。 本稿では,X3DおよびH-Anim標準に基づく仮想3D教育環境の設計と実装に関する最近の研究課題について述べる。 このシステムは、アラビア語入力テキストの全意味を符号化する意味表現から、自動署名言語文を生成する。 サイン言語生成におけるいくつかの側面と課題について論じる。例えば、手話表現の再利用を促進し、手話生成の時間を短縮する手話表現のモデル、手話言語特性に関する手話表現への意味的要素の変換、X3Dコンテンツを用いて現実的なスムーズなジェスチャー配列を生成してアニメーションアバターの自然な外観のサイン間の遷移を実行する方法などである。 アルジェリア原住民によって手話文が評価された。 このプロジェクトの目的は、アラビア語からアルジェリア語への機械翻訳システムの開発であり、アルジェリアの小学校における聴覚障害者の教育ツールとして利用できる。

Advances in NLP, knowledge representation and computer graphic technologies can provide us insights into the development of educational tool for Deaf people. Actual education materials and tools for deaf pupils present several problems, since textbooks are designed to support normal students in the classroom and most of them are not suitable for people with hearing disabilities. Virtual Reality (VR) technologies appear to be a good tool and a promising framework in the education of pupils with hearing disabilities. In this paper, we present a current research tasks surrounding the design and implementation of a virtual 3D educational environment based on X3D and H-Anim standards. The system generates and animates automatically Sign language sentence from a semantic representation that encode the whole meaning of the Arabic input text. Some aspects and issues in Sign language generation will be discussed, including the model of Sign representation that facilitate reuse and reduces the time of Sign generation, conversion of semantic components to sign features representation with regard to Sign language linguistics characteristics and how to generate realistic smooth gestural sequences using X3D content to performs transition between signs for natural-looking of animated avatar. Sign language sentences were evaluated by Algerian native Deaf people. The goal of the project is the development of a machine translation system from Arabic to Algerian Sign Language that can be used as educational tool for Deaf children in algerian primary schools.
翻訳日:2022-11-26 23:50:10 公開日:2020-05-29
# 医用画像分割のための前景境界の強化

Enhancing Foreground Boundaries for Medical Image Segmentation ( http://arxiv.org/abs/2005.14355v1 )

ライセンス: Link先を確認
Dong Yang, Holger Roth, Xiaosong Wang, Ziyue Xu, Andriy Myronenko, Daguang Xu(参考訳) オブジェクトセグメンテーションは、臨床研究、疾患診断、手術計画に有用な現代医療画像解析において重要な役割を担っている。 医療画像の様々なモダリティを考慮すると、臓器、骨、腫瘍、その他の関心領域(ROI)を識別・解析するために、自動または半自動のセグメンテーションアプローチが用いられている。 しかしながら、これらの現代のセグメンテーションアプローチは、画像処理中に生じるファジィな外観のコントラストのため、ROIの境界領域を予測できない傾向にある。 境界領域のセグメンテーション品質をさらに向上させるために,機械学習モデルの最適化に付加的な制約を課す境界拡張損失を提案する。 提案する損失関数は軽量であり、前処理や後処理なしで容易に実装できる。 実験の結果,我々の損失関数はセグメント化精度で他の最先端の損失関数よりも優れているか,少なくとも同等であることがわかった。

Object segmentation plays an important role in the modern medical image analysis, which benefits clinical study, disease diagnosis, and surgery planning. Given the various modalities of medical images, the automated or semi-automated segmentation approaches have been used to identify and parse organs, bones, tumors, and other regions-of-interest (ROI). However, these contemporary segmentation approaches tend to fail to predict the boundary areas of ROI, because of the fuzzy appearance contrast caused during the imaging procedure. To further improve the segmentation quality of boundary areas, we propose a boundary enhancement loss to enforce additional constraints on optimizing machine learning models. The proposed loss function is light-weighted and easy to implement without any pre- or post-processing. Our experimental results validate that our loss function are better than, or at least comparable to, other state-of-the-art loss functions in terms of segmentation accuracy.
翻訳日:2022-11-26 23:49:11 公開日:2020-05-29
# 畳み込みニューラルネットワークによる低次元心理的表現の抽出

Extracting low-dimensional psychological representations from convolutional neural networks ( http://arxiv.org/abs/2005.14363v1 )

ライセンス: Link先を確認
Aditi Jha, Joshua Peterson, Thomas L. Griffiths(参考訳) 深層ニューラルネットワークは、画像のような複雑な刺激の表現を導出する手段として認知モデリングにおいてますます使われている。 これらのネットワークの予測能力は高いが、手元にあるタスクの有用な説明を提供するかどうかは不明である。 畳み込みニューラルネットワーク表現は、適切な適応後の画像に対する人間の類似性判断を予測することが示されている。 しかし、これらの高次元表現は解釈が難しい。 本稿では,これらの表現を,相似性判定の予測的な低次元空間に還元する方法を提案する。 これらの低次元表現は、人間の類似性判断の基礎となる要因についての洞察に富む説明を与える。

Deep neural networks are increasingly being used in cognitive modeling as a means of deriving representations for complex stimuli such as images. While the predictive power of these networks is high, it is often not clear whether they also offer useful explanations of the task at hand. Convolutional neural network representations have been shown to be predictive of human similarity judgments for images after appropriate adaptation. However, these high-dimensional representations are difficult to interpret. Here we present a method for reducing these representations to a low-dimensional space which is still predictive of similarity judgments. We show that these low-dimensional representations also provide insightful explanations of factors underlying human similarity judgments.
翻訳日:2022-11-26 23:48:54 公開日:2020-05-29
# 深部スペクトル畳み込みニューラルネットワークによるハイパースペクトル画像超解像

Hyperspectral Image Super-resolution via Deep Spatio-spectral Convolutional Neural Networks ( http://arxiv.org/abs/2005.14400v1 )

ライセンス: Link先を確認
Jin-Fan Hu, Ting-Zhu Huang, Liang-Jian Deng, Tai-Xiang Jiang, Gemine Vivone and Jocelyn Chanussot(参考訳) ハイパースペクトル画像は、異なる材料の特徴をよりよく理解するために重要である。 この目標を達成するために、彼らは多くのスペクトルバンドを利用する。 しかし、この興味深い特徴は、従来のマルチスペクトル画像システムと比較して、空間分解能の低下によってしばしば支払われる。 そこで本研究では,高分解能ハイパースペクトル画像(LR-HSI)と高分解能マルチスペクトル画像(HR-MSI)を融合して高分解能ハイパースペクトル画像(HR-HSI)を生成する,深部畳み込みニューラルネットワークの簡易かつ効率的なアーキテクチャを提案する。 ネットワークは、異なるスケールでhr-hsiを活用し、スペクトル保存を満足した出力を得ることと、高品位な空間詳細を出力するために、高頻度情報を抽出するためにマルチレゾリューション分析の概念を適用することという2つの折りたたみから、空間情報とスペクトル情報の両方を保存するように設計されている。 最後に、トレーニング中のパフォーマンスを測定するために平均二乗誤差損失関数が使用される。 広汎な実験により、提案したネットワークアーキテクチャは、最近の最先端ハイパースペクトル画像超解像法と比較して(質的にも定量的にも)最高の性能を達成することが示された。 さらに,ネットワーク一般化能力の向上,計算負荷の制限,トレーニングサンプル数に対するロバスト性など,提案手法の利用により,他の重要な利点が指摘できる。

Hyperspectral images are of crucial importance in order to better understand features of different materials. To reach this goal, they leverage on a high number of spectral bands. However, this interesting characteristic is often paid by a reduced spatial resolution compared with traditional multispectral image systems. In order to alleviate this issue, in this work, we propose a simple and efficient architecture for deep convolutional neural networks to fuse a low-resolution hyperspectral image (LR-HSI) and a high-resolution multispectral image (HR-MSI), yielding a high-resolution hyperspectral image (HR-HSI). The network is designed to preserve both spatial and spectral information thanks to an architecture from two folds: one is to utilize the HR-HSI at a different scale to get an output with a satisfied spectral preservation; another one is to apply concepts of multi-resolution analysis to extract high-frequency information, aiming to output high quality spatial details. Finally, a plain mean squared error loss function is used to measure the performance during the training. Extensive experiments demonstrate that the proposed network architecture achieves best performance (both qualitatively and quantitatively) compared with recent state-of-the-art hyperspectral image super-resolution approaches. Moreover, other significant advantages can be pointed out by the use of the proposed approach, such as, a better network generalization ability, a limited computational burden, and a robustness with respect to the number of training samples.
翻訳日:2022-11-26 23:48:31 公開日:2020-05-29
# 画像関係検出のための固定サイズオブジェクト符号化

Fixed-size Objects Encoding for Visual Relationship Detection ( http://arxiv.org/abs/2005.14600v1 )

ライセンス: Link先を確認
Hengyue Pan, Xin Niu, Rongchun Li, Siqi Shen, Yong Dou(参考訳) 本稿では,視覚的関係検出タスクの性能向上のための固定サイズオブジェクト符号化法(FOE-VRD)を提案する。 従来の手法と比較して、FOE-VRDは重要な特徴、すなわち、各入力画像中の全てのオブジェクトを符号化し、関係検出のプロセスを支援するために1つの固定サイズベクトルを使用する。 まず,正規畳み込みニューラルネットワークを特徴抽出器として使用し,入力画像の高レベル特徴を生成する。 次に、入力画像、すなわち$<$subject-predicate-object$>$ でトリプルされた各関係に対して、対象と対象のバウンディングボックスに対応する2つの領域の特徴ベクトルを取得するためにroi-poolingを適用する。 対象と対象の他に,述語分類の結果が入力画像中のrestオブジェクトと関連している可能性も示唆する(これをバックグラウンドオブジェクトと呼ぶ)。 異なる画像の背景オブジェクト数の変動と計算コストにより、ROIプーリング技術を用いて特徴ベクトルを1対1で生成することはできない。 代わりに、1つの固定サイズベクトル(FBEベクトル)を用いて各画像中のすべての背景オブジェクトを符号化する新しい手法を提案する。 上記の3つのベクトルを連結することにより、1つの固定サイズベクトルを用いてオブジェクトを符号化することに成功した。 生成された特徴ベクトルは、完全に接続されたニューラルネットワークに供給され、述語的な分類結果を得る。 vrdデータベース(enentire set and zero-shot test)を用いた実験の結果,提案手法が述語分類と関係検出の両方において有効であることがわかった。

In this paper, we propose a fixed-size object encoding method (FOE-VRD) to improve performance of visual relationship detection tasks. Comparing with previous methods, FOE-VRD has an important feature, i.e., it uses one fixed-size vector to encoding all objects in each input image to assist the process of relationship detection. Firstly, we use a regular convolution neural network as a feature extractor to generate high-level features of input images. Then, for each relationship triplet in input images, i.e., $<$subject-predicate-object$>$, we apply ROI-pooling to get feature vectors of two regions on the feature maps that corresponding to bounding boxes of the subject and object. Besides the subject and object, our analysis implies that the results of predicate classification may also related to the rest objects in input images (we call them background objects). Due to the variable number of background objects in different images and computational costs, we cannot generate feature vectors for them one-by-one by using ROI pooling technique. Instead, we propose a novel method to encode all background objects in each image by using one fixed-size vector (i.e., FBE vector). By concatenating the 3 vectors we generate above, we successfully encode the objects using one fixed-size vector. The generated feature vector is then feed into a fully connected neural network to get predicate classification results. Experimental results on VRD database (entire set and zero-shot tests) show that the proposed method works well on both predicate classification and relationship detection.
翻訳日:2022-11-26 23:41:57 公開日:2020-05-29
# 電子顕微鏡によるニューロン形状自動解析

Automated Neuron Shape Analysis from Electron Microscopy ( http://arxiv.org/abs/2006.00100v1 )

ライセンス: Link先を確認
Sharmishtaa Seshamani, Leila Elabbady, Casey Schneider-Mizell, Gayathri Mahalingam, Sven Dorkenwald, Agnes Bodor, Thomas Macrina, Daniel Bumbarger, JoAnn Buchanan, Marc Takeno, Wenjing Yin, Derrick Brittain, Russel Torres, Daniel Kapner, Kisuk lee, Ran Lu, Jinpeng Wu, Nuno daCosta, Clay Reid, Forrest Collman(参考訳) 細胞型の形態学的解析は、神経科学コミュニティにとって数十年間大きな関心を寄せてきた。 近年、マウス脳の高分解能電子顕微鏡(EM)データセットは、これまで不可能だった詳細レベルでデータ解析の機会を開放している。 これらのデータセットは本質的に非常に大きいため、手動分析は実用的な解決策ではない。 特に興味深いのは、シナプス後構造のレベルの詳細である。 本稿では,emデータを用いたシナプス後構造に基づくニューロン解析の完全自動化フレームワークを提案する。 処理フレームワークは、形状抽出、オートエンコーダによる表現、および形状分布に基づく全セルモデリングおよび解析を含む。 我々は,マウス視覚野の1mm x 1mm x 40マイクロメートルの体積を撮像して得られた1031ニューロンのデータセットに適用し,脳の形状のクラスタリングと分類における手法の強さを示す。

Morphology based analysis of cell types has been an area of great interest to the neuroscience community for several decades. Recently, high resolution electron microscopy (EM) datasets of the mouse brain have opened up opportunities for data analysis at a level of detail that was previously impossible. These datasets are very large in nature and thus, manual analysis is not a practical solution. Of particular interest are details to the level of post synaptic structures. This paper proposes a fully automated framework for analysis of post-synaptic structure based neuron analysis from EM data. The processing framework involves shape extraction, representation with an autoencoder, and whole cell modeling and analysis based on shape distributions. We apply our novel framework on a dataset of 1031 neurons obtained from imaging a 1mm x 1mm x 40 micrometer volume of the mouse visual cortex and show the strength of our method in clustering and classification of neuronal shapes.
翻訳日:2022-11-26 23:41:10 公開日:2020-05-29
# ハーブセーフ-162 用語データの意味表現を内在的に評価するためのドメイン固有データセット

Harbsafe-162. A Domain-Specific Data Set for the Intrinsic Evaluation of Semantic Representations for Terminological Data ( http://arxiv.org/abs/2005.14576v1 )

ライセンス: Link先を確認
Susanne Arndt, Dieter Schn\"app(参考訳) この記事では、分布意味モデルを評価するためのドメイン固有のデータセットであるHarbsafe-162について述べる。 ブラウンシュヴァイク工科大学とドイツのdinとvdeの電気・電子・情報技術委員会(harbsafe project)による協力から生まれた。 プロジェクトの目的は、少なくとも1つまたは複数の用語、用語句、定義からなる複雑な語彙データである、用語のエントリに分布意味モデルを適用することである。 このアプリケーションは、より複雑な問題を解決するために必要である: 標準と標準化団体の用語の調和(すなわち、重複と矛盾の解決)。 用語的エントリに対する評価データセットが不足していたため、ハーブセーフ-162は調和支援のための必要なステップであった。 Harbsafe-162は、機能安全、ITセキュリティ、信頼性の分野における9つの電気技術標準のデータをカバーする。 2人の言語学者と3人の標準化の専門家が参加した類似度評価タスクという本質的評価手法が適用されている。 データセットは、確立された文埋め込みモデルの特定の実装を評価するために使用される。 この実装はドメイン固有のデータに満足していることが証明され、ハーモニゼーション支援のためのさらなる実装がプロジェクトによって進められる可能性がある。 近年の本質的評価手法に対する批判を踏まえ、本論文はHarbsafe-162の評価を結論として、類似性評価タスクの性質に関するより一般的な議論に参加する。 Harbsafe-162がコミュニティで利用可能になった。

The article presents Harbsafe-162, a domain-specific data set for evaluating distributional semantic models. It originates from a cooperation by Technische Universit\"at Braunschweig and the German Commission for Electrical, Electronic & Information Technologies of DIN and VDE, the Harbsafe project. One objective of the project is to apply distributional semantic models to terminological entries, that is, complex lexical data comprising of at least one or several terms, term phrases and a definition. This application is needed to solve a more complex problem: the harmonization of terminologies of standards and standards bodies (i.e. resolution of doublettes and inconsistencies). Due to a lack of evaluation data sets for terminological entries, the creation of Harbsafe-162 was a necessary step towards harmonization assistance. Harbsafe-162 covers data from nine electrotechnical standards in the domain of functional safety, IT security, and dependability. An intrinsic evaluation method in the form of a similarity rating task has been applied in which two linguists and three domain experts from standardization participated. The data set is used to evaluate a specific implementation of an established sentence embedding model. This implementation proves to be satisfactory for the domain-specific data so that further implementations for harmonization assistance may be brought forward by the project. Considering recent criticism on intrinsic evaluation methods, the article concludes with an evaluation of Harbsafe-162 and joins a more general discussion about the nature of similarity rating tasks. Harbsafe-162 has been made available for the community.
翻訳日:2022-11-26 23:40:56 公開日:2020-05-29
# カテゴリー再パラメータ化による教師なし音声モデルの改善

Improving Unsupervised Sparsespeech Acoustic Models with Categorical Reparameterization ( http://arxiv.org/abs/2005.14578v1 )

ライセンス: Link先を確認
Benjamin Milde, Chris Biemann(参考訳) Sparsespeechモデルは教師なし音響モデルであり、非転写音声に対して個別の擬似ラベルを生成することができる。 Sparsespeechモデルを拡張して、ランダムな離散変数をサンプリングし、擬似後生図を生成する。 この後生図の間隔の程度は、モデルが訓練された後に完全に制御できる。 私たちはgumbel-softmaxのトリックを使って、ニューラルネットワークの離散分布からおよそサンプルを抽出し、標準的なバックプロパゲーションでネットワークを効率的にトレーニングできる。 新しい改良されたモデルは、限定的または無監督のASRのベンチマークであるLibri-Light corpusでトレーニングされ、評価されている。 モデルは600hと6000hの英語読解音声で訓練されている。 abx誤差尺度と半教師付きで10hの書き起こし音声を用いた改良モデルの評価を行った。 また,600hの音声データに対するSparsespeechモデルの改良により,話者間のABX誤り率を最大31.4%向上させるとともに,6000hに拡張した場合のさらなる改善を観察した。

The Sparsespeech model is an unsupervised acoustic model that can generate discrete pseudo-labels for untranscribed speech. We extend the Sparsespeech model to allow for sampling over a random discrete variable, yielding pseudo-posteriorgrams. The degree of sparsity in this posteriorgram can be fully controlled after the model has been trained. We use the Gumbel-Softmax trick to approximately sample from a discrete distribution in the neural network and this allows us to train the network efficiently with standard backpropagation. The new and improved model is trained and evaluated on the Libri-Light corpus, a benchmark for ASR with limited or no supervision. The model is trained on 600h and 6000h of English read speech. We evaluate the improved model using the ABX error measure and a semi-supervised setting with 10h of transcribed speech. We observe a relative improvement of up to 31.4% on ABX error rates across speakers on the test set with the improved Sparsespeech model on 600h of speech data and further improvements when we scale the model to 6000h.
翻訳日:2022-11-26 23:40:32 公開日:2020-05-29
# 製品仕様からのユーザクエリに対する大規模事前学習言語モデルの利用

Using Large Pretrained Language Models for Answering User Queries from Product Specifications ( http://arxiv.org/abs/2005.14613v1 )

ライセンス: Link先を確認
Kalyani Roy (1), Smit Shah (1), Nithish Pai (2), Jaidam Ramtej (2), Prajit Prashant Nadkarn (2), Jyotirmoy Banerjee (2), Pawan Goyal (1), and Surender Kumar (2) ((1) Indian Institute of Technology Kharagpur, (2) Flipkart)(参考訳) eコマースのwebサイトから製品を購入する一方で、顧客は概して多くの疑問を抱いている。 電子商取引サービスプロバイダと顧客の両方の観点から、ユーザクエリに対する即時回答を提供する効果的な質問応答システムが必要である。 製品の使用後にのみ答えられる質問はいくつかありますが、製品仕様自体から答えられる質問はたくさんあります。 私たちの仕事は、関連する製品仕様を見つけることによって、この方向への第一歩を踏み出します。 この問題に対するトレーニングデータセットを自動生成するアプローチを提案する。 我々は最近提案した XLNet および BERT アーキテクチャをこの問題に利用し,それに対して以前に適用した Siamese モデルよりもはるかに優れた性能を提供することを確認した。 私たちのモデルは、ひとつの垂直でトレーニングし、さまざまな垂直でテストした場合でも、優れたパフォーマンスを提供します。

While buying a product from the e-commerce websites, customers generally have a plethora of questions. From the perspective of both the e-commerce service provider as well as the customers, there must be an effective question answering system to provide immediate answers to the user queries. While certain questions can only be answered after using the product, there are many questions which can be answered from the product specification itself. Our work takes a first step in this direction by finding out the relevant product specifications, that can help answering the user questions. We propose an approach to automatically create a training dataset for this problem. We utilize recently proposed XLNet and BERT architectures for this problem and find that they provide much better performance than the Siamese model, previously applied for this problem. Our model gives a good performance even when trained on one vertical and tested across different verticals.
翻訳日:2022-11-26 23:40:15 公開日:2020-05-29
# beyond leaderboards:自然言語推論データとモデルの弱点を明らかにする方法に関する調査

Beyond Leaderboards: A survey of methods for revealing weaknesses in Natural Language Inference data and models ( http://arxiv.org/abs/2005.14709v1 )

ライセンス: Link先を確認
Viktor Schlegel, Goran Nenadic, Riza Batista-Navarro(参考訳) 近年、自然言語推論(NLI)データセットを表面的な手がかりとして分析する出版物が増えている。これらのデータセットの基盤となるタスクの複雑さを損なうのか、このデータに基づいて最適化され評価されるモデルにどのように影響するか。 この構造化された調査は、モデルとデータセットの報告された弱点と、それらの弱点を明らかにし、緩和する手法を分類することで、進化する研究領域の概要を提供する。 我々は,研究成果を要約し議論し,今後の研究方向性に関する一連の勧告で結論付ける。 新たなデータセットを提案する研究者や、興味のあるさまざまな現象を評価するためのデータの適合性と品質を評価するツールセット、および新しいアーキテクチャを開発する研究者にとって、モデルが獲得した能力に関する改善の影響をさらに理解するための有用なリソースになることを願っている。

Recent years have seen a growing number of publications that analyse Natural Language Inference (NLI) datasets for superficial cues, whether they undermine the complexity of the tasks underlying those datasets and how they impact those models that are optimised and evaluated on this data. This structured survey provides an overview of the evolving research area by categorising reported weaknesses in models and datasets and the methods proposed to reveal and alleviate those weaknesses for the English language. We summarise and discuss the findings and conclude with a set of recommendations for possible future research directions. We hope it will be a useful resource for researchers who propose new datasets, to have a set of tools to assess the suitability and quality of their data to evaluate various phenomena of interest, as well as those who develop novel architectures, to further understand the implications of their improvements with respect to their model's acquired capabilities.
翻訳日:2022-11-26 23:32:50 公開日:2020-05-29
# オーサシップ分析におけるドメインスタイル抑制の重要性

The Importance of Suppressing Domain Style in Authorship Analysis ( http://arxiv.org/abs/2005.14714v1 )

ライセンス: Link先を確認
Sebastian Bischoff, Niklas Deckers, Marcel Schliebs, Ben Thies, Matthias Hagen, Efstathios Stamatatos, Benno Stein, Martin Potthast(参考訳) 著者分析への多くのアプローチの前提は、執筆様式の表現である。 しかし、数十年にわたる研究にもかかわらず、文字のトリグラム周波数のような広く受け入れられた表現が、ドメイン固有のスタイルコンポーネントやトピックとは対照的に、実際に著者の文体を表しているかどうかはまだ不明である。 固定された著者の新たな実験的なセットアップにおいて、この欠点に初めて対処するが、トレーニングとテストの間にドメインを交換する。 この設定により、ドメインに注意を払わずに適用した場合、文字トリグラム特徴を用いたアプローチは、ドメインスワップによる分類精度の最大55.4ポイントの低下に悩まされる。 さらに,ドメイン・アドバイザリ・ラーニングに基づく新たな治療法を提案し,ヒューリスティック・ルールに基づく文献と比較する。 どちらもうまく動作し、ドメインスワップ時の精度損失を3.6%と3.9%に削減できる。

The prerequisite of many approaches to authorship analysis is a representation of writing style. But despite decades of research, it still remains unclear to what extent commonly used and widely accepted representations like character trigram frequencies actually represent an author's writing style, in contrast to more domain-specific style components or even topic. We address this shortcoming for the first time in a novel experimental setup of fixed authors but swapped domains between training and testing. With this setup, we reveal that approaches using character trigram features are highly susceptible to favor domain information when applied without attention to domains, suffering drops of up to 55.4 percentage points in classification accuracy under domain swapping. We further propose a new remedy based on domain-adversarial learning and compare it to ones from the literature based on heuristic rules. Both can work well, reducing accuracy losses under domain swapping to 3.6% and 3.9%, respectively.
翻訳日:2022-11-26 23:32:34 公開日:2020-05-29
# ニューラルランゲージモデルに基づく語彙置換アプローチの比較研究

A Comparative Study of Lexical Substitution Approaches based on Neural Language Models ( http://arxiv.org/abs/2006.00031v1 )

ライセンス: Link先を確認
Nikolay Arefyev, Boris Sheludko, Alexander Podolskiy, and Alexander Panchenko(参考訳) 文脈における語彙置換は、単語感覚誘導、語彙関係抽出、データ拡張など、様々なNLPアプリケーションのバックボーンとして使用できる非常に強力な技術である。 本稿では,context2vec,elmo,bert,xlnet などの汎用言語モデルとマスキング言語モデル(lms,mlms)について,語彙置換の課題に適用した大規模比較研究を行う。 また,soma lms/mlmsによる競合効果は,目的語に関する情報が適切に注入された場合にさらに向上し,複数のターゲット注入法を比較した。 さらに,異なるモデルが生成する代替語と対象語間の意味的関係の分析を行い,アノテータが実際にどのような単語を生成しているか,あるいは代用語として与えているのかを考察する。

Lexical substitution in context is an extremely powerful technology that can be used as a backbone of various NLP applications, such as word sense induction, lexical relation extraction, data augmentation, etc. In this paper, we present a large-scale comparative study of popular neural language and masked language models (LMs and MLMs), such as context2vec, ELMo, BERT, XLNet, applied to the task of lexical substitution. We show that already competitive results achieved by SOTA LMs/MLMs can be further improved if information about the target word is injected properly, and compare several target injection methods. In addition, we provide analysis of the types of semantic relations between the target and substitutes generated by different models providing insights into what kind of words are really generated or given by annotators as substitutes.
翻訳日:2022-11-26 23:32:15 公開日:2020-05-29
# 交互凍結型言語専用エンコーダデコーダによる多言語機械翻訳の訓練

Training Multilingual Machine Translation by Alternately Freezing Language-Specific Encoders-Decoders ( http://arxiv.org/abs/2006.01594v1 )

ライセンス: Link先を確認
Carlos Escolano, Marta R. Costa-juss\`a, Jos\'e A. R. Fonollosa and Mikel Artetxe(参考訳) 本稿では,多言語機械翻訳システムを構成する言語固有のエンコーダ・デコーダのモジュール構造を提案する。 以前の作業とは違って、エンコーダまたはデコーダモジュールを交互に凍結させることで、すべての翻訳方向の$n$言語を同時にトレーニングし、間接的にすべての言語で共通の中間表現でシステムをトレーニングさせます。 多言語機械翻訳による実験結果から,新しい言語の追加やゼロショット翻訳を行う場合,初期言語を少し遅れながら改良したモジュラーアーキテクチャのトレーニングに成功していることがわかった。 自然言語推論のタスクにおける文表現の質のさらなる比較は、交互凍結訓練もこの方向に有益であることを示している。

We propose a modular architecture of language-specific encoder-decoders that constitutes a multilingual machine translation system that can be incrementally extended to new languages without the need for retraining the existing system when adding new languages. Differently from previous works, we simultaneously train $N$ languages in all translation directions by alternately freezing encoder or decoder modules, which indirectly forces the system to train in a common intermediate representation for all languages. Experimental results from multilingual machine translation show that we can successfully train this modular architecture improving on the initial languages while falling slightly behind when adding new languages or doing zero-shot translation. Additional comparison of the quality of sentence representation in the task of natural language inference shows that the alternately freezing training is also beneficial in this direction.
翻訳日:2022-11-26 23:31:41 公開日:2020-05-29
# 半教師付き分類のための深層グラフ学習

Deep graph learning for semi-supervised classification ( http://arxiv.org/abs/2005.14403v1 )

ライセンス: Link先を確認
Guangfeng Lin, Xiaobing Kang, Kaiyang Liao, Fan Zhao, Yajun Chen(参考訳) グラフ学習(gl)はグラフ畳み込みネットワーク(gcn)に基づくデータの分布構造(グラフ構造)を動的に捉えることができ、グラフ構造の学習品質は半教師付き分類においてgcnに直接影響を与える。 既存の手法では、計算層と関連する損失をgcnに結合してグローバルグラフ(すべてのデータサンプルからのグラフ構造の測定)やローカルグラフ(ローカルデータサンプルからのグラフ構造の測定)を探索する。 グローバルグラフはクラス間データの全体構造記述に重点を置いており、局所グラフはクラス内データの近傍構造表現に傾向がある。 しかし,これらのグラフの相互依存性から,半教師あり分類のための学習過程のグラフのバランスを取ることは困難である。 相互依存をシミュレートするために,半教師付き分類においてより優れたグラフ表現を求めるディープグラフ学習(DGL)を提案する。 DGLは、前層の計量計算の更新によってグローバル構造を学ぶだけでなく、次の層の局所重み付けによって局所構造をマイニングする。 さらに、DGLは、これらの構造の相互依存性を動的に符号化することで異なる構造を融合させ、半教師付き分類の性能を向上させるための階層的進行学習による異なる構造の関係を深く掘り下げることができる。 実験では、引用ネットワークの3つのベンチマークデータセット(Citeseer、Cora、Pubmed)と画像の2つのベンチマークデータセット(MNIST、Cifar10)において、DGLが最先端の手法よりも優れていることを示した。

Graph learning (GL) can dynamically capture the distribution structure (graph structure) of data based on graph convolutional networks (GCN), and the learning quality of the graph structure directly influences GCN for semi-supervised classification. Existing methods mostly combine the computational layer and the related losses into GCN for exploring the global graph(measuring graph structure from all data samples) or local graph (measuring graph structure from local data samples). Global graph emphasises on the whole structure description of the inter-class data, while local graph trend to the neighborhood structure representation of intra-class data. However, it is difficult to simultaneously balance these graphs of the learning process for semi-supervised classification because of the interdependence of these graphs. To simulate the interdependence, deep graph learning(DGL) is proposed to find the better graph representation for semi-supervised classification. DGL can not only learn the global structure by the previous layer metric computation updating, but also mine the local structure by next layer local weight reassignment. Furthermore, DGL can fuse the different structures by dynamically encoding the interdependence of these structures, and deeply mine the relationship of the different structures by the hierarchical progressive learning for improving the performance of semi-supervised classification. Experiments demonstrate the DGL outperforms state-of-the-art methods on three benchmark datasets (Citeseer,Cora, and Pubmed) for citation networks and two benchmark datasets (MNIST and Cifar10) for images.
翻訳日:2022-11-26 23:31:27 公開日:2020-05-29
# wavenet:wavelet統合イメージセグメンテーションのためのディープネットワーク

WaveSNet: Wavelet Integrated Deep Networks for Image Segmentation ( http://arxiv.org/abs/2005.14461v1 )

ライセンス: Link先を確認
Qiufu Li and Linlin Shen(参考訳) ディープネットワークでは、失われたデータの詳細は画像セグメンテーションの性能を著しく低下させる。 本稿では,特徴マップのダウンサンプリング中にデータの詳細を抽出するために離散ウェーブレット変換(DWT)を適用し,アップサンプリング中に抽出した詳細を逆DWT(IDWT)に適用して詳細を復元する。 まず、DWT/IDWTを一般的なネットワーク層として変換し、1D/2D/3DデータやHaar、Cohen、Daubechiesなどの様々なウェーブレットに適用する。 そして、U-Net、SegNet、DeepLabv3+といった様々なアーキテクチャに基づいて、画像セグメンテーションのためのウェーブレット統合ディープネットワークを設計する。 データの詳細処理におけるDWT/IDWTの有効性のため、CamVid、Pascal VOC、Cityscapesの実験結果から、WaveSNetsはバニラバージョンよりもセグメンテーション性能が優れていることが分かる。

In deep networks, the lost data details significantly degrade the performances of image segmentation. In this paper, we propose to apply Discrete Wavelet Transform (DWT) to extract the data details during feature map down-sampling, and adopt Inverse DWT (IDWT) with the extracted details during the up-sampling to recover the details. We firstly transform DWT/IDWT as general network layers, which are applicable to 1D/2D/3D data and various wavelets like Haar, Cohen, and Daubechies, etc. Then, we design wavelet integrated deep networks for image segmentation (WaveSNets) based on various architectures, including U-Net, SegNet, and DeepLabv3+. Due to the effectiveness of the DWT/IDWT in processing data details, experimental results on CamVid, Pascal VOC, and Cityscapes show that our WaveSNets achieve better segmentation performances than their vanilla versions.
翻訳日:2022-11-26 23:30:22 公開日:2020-05-29
# Probabilistic-CAM Pooling による低位病変の局所化

Weakly Supervised Lesion Localization With Probabilistic-CAM Pooling ( http://arxiv.org/abs/2005.14480v1 )

ライセンス: Link先を確認
Wenwu Ye, Jin Yao, Hui Xue, Yi Li(参考訳) 胸部x線上の胸部疾患の局在は診断や治療計画などの臨床治療において重要な役割を担っている。 しかし、現在のディープラーニングベースのアプローチでは、このようなシステムをトレーニングするために、注釈付き境界ボックスのような強力な監督を必要とすることが多い。 本稿では,画像レベルのみを監督する新しいグローバルプール操作であるprobabilistic class activation map (pcam) poolingを提案する。 PCAMプーリングは、確率論的手法でトレーニング中のCAMの優れたローカライズ能力を活用する。 ChestX-ray14データセットの実験では、PCAMプーリングでトレーニングされたResNet-34モデルが、分類タスクとローカライゼーションタスクの両方で最先端のベースラインを上回っている。 PCAMプーリングによって生じる確率マップの視覚的検討は、CAMによって生成された局所化ヒートマップと比較して、病変領域の周囲の明瞭で鋭い境界を示す。 PCAMプーリングはhttps://github.com/jfhealthcare/Chexpert.comで公開されている。

Localizing thoracic diseases on chest X-ray plays a critical role in clinical practices such as diagnosis and treatment planning. However, current deep learning based approaches often require strong supervision, e.g. annotated bounding boxes, for training such systems, which is infeasible to harvest in large-scale. We present Probabilistic Class Activation Map (PCAM) pooling, a novel global pooling operation for lesion localization with only image-level supervision. PCAM pooling explicitly leverages the excellent localization ability of CAM during training in a probabilistic fashion. Experiments on the ChestX-ray14 dataset show a ResNet-34 model trained with PCAM pooling outperforms state-of-the-art baselines on both the classification task and the localization task. Visual examination on the probability maps generated by PCAM pooling shows clear and sharp boundaries around lesion regions compared to the localization heatmaps generated by CAM. PCAM pooling is open sourced at https://github.com/jfhealthcare/Chexpert.
翻訳日:2022-11-26 23:30:03 公開日:2020-05-29
# 3次元U-netと最適化損失関数を用いた肺葉の自動分節

Automatic segmentation of the pulmonary lobes with a 3D u-net and optimized loss function ( http://arxiv.org/abs/2006.00083v1 )

ライセンス: Link先を確認
Bianca Lassen-Schmidt, Alessa Hering, Stefan Krass, Hans Meine(参考訳) 肺葉の完全自動分節は解剖学的変化,病理,不完全断裂により困難である。 肺葉分画のための3次元u-netを49個の公開データセットで訓練し,肺葉境界を強調するために重み付きダイス損失関数を導入した。 提案手法の性能を検証するために,提案手法を他の2つの手法と比較した。 新しい損失関数は平均距離を1.46mm(重み付けなしで単純な損失関数で2.08mm)に改善した。

Fully-automatic lung lobe segmentation is challenging due to anatomical variations, pathologies, and incomplete fissures. We trained a 3D u-net for pulmonary lobe segmentation on 49 mainly publically available datasets and introduced a weighted Dice loss function to emphasize the lobar boundaries. To validate the performance of the proposed method we compared the results to two other methods. The new loss function improved the mean distance to 1.46 mm (compared to 2.08 mm for simple loss function without weighting).
翻訳日:2022-11-26 23:23:08 公開日:2020-05-29
# スキャナ不変表現の概要

Overview of Scanner Invariant Representations ( http://arxiv.org/abs/2006.00115v1 )

ライセンス: Link先を確認
Daniel Moyer, Greg Ver Steeg, Paul M. Thompson(参考訳) 複数のソースからプールされたイメージングデータは、各ソースからバイアスを受ける。 これらのスキャナー/サイトバイアスを正さない研究は、統計力を失い、最悪の場合はデータに急激な相関が残る。 バイアス効果の推定は、サイト間の対応を伴うデータのポーシティのため、非自明であり、収集に費用がかかる「トラベリングファントム」データと呼ばれる。 しかし、直接対応を利用した多くの解が提案されている。 これとは対照的に、moyer et al. (2019) は不変表現を用いた教師なし解を提案している。 データ処理の不等式を活用することで、不変表現を使用して、元のソースに反するが基盤構造に忠実なイメージ再構成を作成することができる。 本稿では,本手法の概要を紹介する。

Pooled imaging data from multiple sources is subject to bias from each source. Studies that do not correct for these scanner/site biases at best lose statistical power, and at worst leave spurious correlations in their data. Estimation of the bias effects is non-trivial due to the paucity of data with correspondence across sites, so called "traveling phantom" data, which is expensive to collect. Nevertheless, numerous solutions leveraging direct correspondence have been proposed. In contrast to this, Moyer et al. (2019) proposes an unsupervised solution using invariant representations, one which does not require correspondence and thus does not require paired images. By leveraging the data processing inequality, an invariant representation can then be used to create an image reconstruction that is uninformative of its original source, yet still faithful to the underlying structure. In the present abstract we provide an overview of this method.
翻訳日:2022-11-26 23:23:00 公開日:2020-05-29
# digit: 小型小型高分解能触覚センサのための新しい設計と手操作への応用

DIGIT: A Novel Design for a Low-Cost Compact High-Resolution Tactile Sensor with Application to In-Hand Manipulation ( http://arxiv.org/abs/2005.14679v1 )

ライセンス: Link先を確認
Mike Lambeta and Po-Wei Chou and Stephen Tian and Brian Yang and Benjamin Maloon and Victoria Rose Most and Dave Stroud and Raymond Santos and Ahmad Byagowi and Gregg Kammerer and Dinesh Jayaraman and Roberto Calandra(参考訳) 何十年もの研究にもかかわらず、汎用的な手作業はロボティクスの未解決の課題の1つだ。 現在のロボット操作システムを制限する要因の1つは、接触力を正確に感知することの難しさである。 ロボット操作の改善に向けたステップとして,手動操作を指向した,安価でコンパクトで高解像度な触覚センサであるDIGITを導入する。 DIGITは、マルチフィンガーハンドに装着可能なフォームファクタを小型化し、より簡単で繰り返し可能な製造プロセスと信頼性の向上をもたらすいくつかの設計改善を提供することで、過去の視覚ベースの触覚センサを改善している。 深層ニューラルネットワークモデルに基づく制御器を訓練し,マルチフィンガーロボットハンドでガラス大理石を手動操作することで,DIGITセンサの能力を実証する。 ロボットコミュニティに信頼性と低コストの触覚センサーを提供するため、我々はデジットデザインをhttps://digit.ml/でオープンソース化した。

Despite decades of research, general purpose in-hand manipulation remains one of the unsolved challenges of robotics. One of the contributing factors that limit current robotic manipulation systems is the difficulty of precisely sensing contact forces -- sensing and reasoning about contact forces are crucial to accurately control interactions with the environment. As a step towards enabling better robotic manipulation, we introduce DIGIT, an inexpensive, compact, and high-resolution tactile sensor geared towards in-hand manipulation. DIGIT improves upon past vision-based tactile sensors by miniaturizing the form factor to be mountable on multi-fingered hands, and by providing several design improvements that result in an easier, more repeatable manufacturing process, and enhanced reliability. We demonstrate the capabilities of the DIGIT sensor by training deep neural network model-based controllers to manipulate glass marbles in-hand with a multi-finger robotic hand. To provide the robotic community access to reliable and low-cost tactile sensors, we open-source the DIGIT design at https://digit.ml/.
翻訳日:2022-11-26 23:21:55 公開日:2020-05-29
# 弱ラベルデータを用いた音の大規模視聴覚学習

Large Scale Audiovisual Learning of Sounds with Weakly Labeled Data ( http://arxiv.org/abs/2006.01595v1 )

ライセンス: Link先を確認
Haytham M. Fayek and Anurag Kumar(参考訳) 音の認識は、計算オーディオシーン分析と機械知覚の重要な側面である。 本稿では、音声認識は、音声と視覚の両方のモダリティを用いて音の区別が容易であるという点において、本質的にはマルチモーダルなオーディオビジュアルタスクであると主張する。 本稿では,弱ラベルビデオ記録から音を認識することを学ぶオーディオビジュアル融合モデルを提案する。 提案する融合モデルでは,個々の音声および視覚モデルの出力を動的に結合するアテンション機構を利用する。 大規模音響イベントデータセットであるaudiosetの実験では、シングルモーダルモデルや最先端融合モデルやマルチモーダルモデルよりも優れる、提案モデルの有効性が示されている。 平均精度 (mAP) は46.16で, 平均精度 (mAP) は約4.35 mAP (相対値10.4%) で先行技術より優れていた。

Recognizing sounds is a key aspect of computational audio scene analysis and machine perception. In this paper, we advocate that sound recognition is inherently a multi-modal audiovisual task in that it is easier to differentiate sounds using both the audio and visual modalities as opposed to one or the other. We present an audiovisual fusion model that learns to recognize sounds from weakly labeled video recordings. The proposed fusion model utilizes an attention mechanism to dynamically combine the outputs of the individual audio and visual models. Experiments on the large scale sound events dataset, AudioSet, demonstrate the efficacy of the proposed model, which outperforms the single-modal models, and state-of-the-art fusion and multi-modal models. We achieve a mean Average Precision (mAP) of 46.16 on Audioset, outperforming prior state of the art by approximately +4.35 mAP (relative: 10.4%).
翻訳日:2022-11-26 23:21:38 公開日:2020-05-29
# アライメントベースチャンキングを用いたニューラル同時音声翻訳

Neural Simultaneous Speech Translation Using Alignment-Based Chunking ( http://arxiv.org/abs/2005.14489v1 )

ライセンス: Link先を確認
Patrick Wilken, Tamer Alkhouli, Evgeny Matusov, Pavel Golik(参考訳) 同時機械翻訳では、レイテンシと品質のトレードオフを伴う、ソースワードの連続的なストリームが与えられた部分翻訳をいつ生成するかを決定することが目的である。 入力や出力語の生成を継続する際の動的決定を動的に行うニューラルネットワーク翻訳(NMT)モデルを提案する。 モデルは、ソースチャンクの終了を動的に決定するコンポーネントと、消費チャンクを変換するコンポーネントの2つで構成されている。 私たちは、推論条件と一致した方法でコンポーネントを共同でトレーニングします。 チャンクトレーニングデータを生成するために,十分なコンテキストを維持しながら単語アライメントを利用する手法を提案する。 実音声とテキスト入力の両方において,深度の異なる双方向および一方向エンコーダとモデルを比較する。 iwslt 2020の英語とドイツ語のタスクの結果は、wait-kのベースラインを2.6から3.7%上回っています。

In simultaneous machine translation, the objective is to determine when to produce a partial translation given a continuous stream of source words, with a trade-off between latency and quality. We propose a neural machine translation (NMT) model that makes dynamic decisions when to continue feeding on input or generate output words. The model is composed of two main components: one to dynamically decide on ending a source chunk, and another that translates the consumed chunk. We train the components jointly and in a manner consistent with the inference conditions. To generate chunked training data, we propose a method that utilizes word alignment while also preserving enough context. We compare models with bidirectional and unidirectional encoders of different depths, both on real speech and text input. Our results on the IWSLT 2020 English-to-German task outperform a wait-k baseline by 2.6 to 3.7% BLEU absolute.
翻訳日:2022-11-26 23:21:22 公開日:2020-05-29
# ソーシャルメディアにおけるヘイトスピーチ検出のための深層学習手法の検討

Investigating Deep Learning Approaches for Hate Speech Detection in Social Media ( http://arxiv.org/abs/2005.14690v1 )

ライセンス: Link先を確認
Prashant Kapil, Asif Ekbal, Dipankar Das(参考訳) インターネット上の驚異的な成長は個人の表現力を高めるのに役立ったが、表現の自由の誤用は様々なサイバー犯罪や反社会的活動の増加にも繋がった。 ヘイトスピーチ(Hate speech)は、社会的ファブリックの完全性に脅威をもたらす可能性があるため、他の問題と同様に真剣に対処する必要がある。 本稿では,ソーシャルメディアにおける各種ヘイトスピーチの検出に,様々な埋め込みを用いたディープラーニング手法を提案する。 大量のテキスト、特に限られた文脈情報を含むツイートからヘイトスピーチを検出することは、いくつかの実践的な課題を引き起こす。 さらに, ユーザ生成データの多様性やヘイトスピーチの存在が, メッセージの程度や意図の特定を困難にしている。 異なる領域の3つの公開データセットに対する実験では、精度とF1スコアが大幅に向上した。

The phenomenal growth on the internet has helped in empowering individual's expressions, but the misuse of freedom of expression has also led to the increase of various cyber crimes and anti-social activities. Hate speech is one such issue that needs to be addressed very seriously as otherwise, this could pose threats to the integrity of the social fabrics. In this paper, we proposed deep learning approaches utilizing various embeddings for detecting various types of hate speeches in social media. Detecting hate speech from a large volume of text, especially tweets which contains limited contextual information also poses several practical challenges. Moreover, the varieties in user-generated data and the presence of various forms of hate speech makes it very challenging to identify the degree and intention of the message. Our experiments on three publicly available datasets of different domains shows a significant improvement in accuracy and F1-score.
翻訳日:2022-11-26 23:20:57 公開日:2020-05-29
# 微分分解可能部分モジュラー最大化

Differentially Private Decomposable Submodular Maximization ( http://arxiv.org/abs/2005.14717v1 )

ライセンス: Link先を確認
Anamay Chaturvedi, Huy Nguyen, Lydia Zakynthinou(参考訳) 分解可能部分モジュラ函数の差分制約最大化問題について検討する。 部分モジュラ関数は、部分モジュラ関数の和の形式を取ると分解可能である。 単調で分解可能な部分モジュラ函数を濃度制約の下で最大化する特別なケースは、 Combinatorial Public Projects (CPP) 問題 [Papadimitriou et al., 2008] として知られている。 Guptaらによる以前の作品。 2010] は CPP 問題に対して差分プライベートなアルゴリズムを与えた。 我々は,一般マトロイド制約下でのモノトーンおよび非モノトーン分解可能な部分モジュラー最大化のための微分プライベートアルゴリズムの設計により,本手法を拡張する。 我々は,実験的な性能を示す実験によって理論的境界を補完し,偏微分プライベートなアルゴリズムを極大化の一般の場合に対して改良し,非プライベートなアルゴリズムの性能に近づいた。

We study the problem of differentially private constrained maximization of decomposable submodular functions. A submodular function is decomposable if it takes the form of a sum of submodular functions. The special case of maximizing a monotone, decomposable submodular function under cardinality constraints is known as the Combinatorial Public Projects (CPP) problem [Papadimitriou et al., 2008]. Previous work by Gupta et al. [2010] gave a differentially private algorithm for the CPP problem. We extend this work by designing differentially private algorithms for both monotone and non-monotone decomposable submodular maximization under general matroid constraints, with competitive utility guarantees. We complement our theoretical bounds with experiments demonstrating empirical performance, which improves over the differentially private algorithms for the general case of submodular maximization and is close to the performance of non-private algorithms.
翻訳日:2022-11-26 23:14:37 公開日:2020-05-29
# グラフに基づくキャリブレーション転送

Graph-based calibration transfer ( http://arxiv.org/abs/2006.00089v1 )

ライセンス: Link先を確認
Ramin Nikzad-Langerodi and Florian Sobieczky(参考訳) キャリブレーションを一次装置から二次機器へ転送する問題、すなわちキャリブレーション転送(CT)は、過去数十年にわたって化学工学においてかなりの研究がなされてきた。 現在のSoA(State-of-the-art)メソッドでは、適切な転送標準が利用可能であれば、(一部)直接標準化がうまく機能する。 しかし、同様の(スペクトル)特徴とキャリブレーションサンプルを共有する安定したキャリブレーション標準は必ずしも利用できない。 任意校正基準によるCTの実現に向けて, 部分最小二乗(PLS)目標の多様体正規化を用いた新しいCT手法を提案する。 特に,本手法では,一次および二次機器で測定されるキャリブレーション標準は,一次キャリブレーションモデルの潜在変数空間において(ほぼ)不変な射影を持つ。 これにより、入力データの明示的な前処理を用いたほとんどの最先端技術とは対照的に、xの予測方向におけるデバイス間変動を暗黙的に除去する。 我々は、nbsガラス標準スペクトルを機器の標準化に用いたコーンベンチマークデータセットでこのアプローチをテストし、その結果を現在のsoaメソッドと比較する。

The problem of transferring calibrations from a primary to a secondary instrument, i.e. calibration transfer (CT), has been a matter of considerable research in chemometrics over the past decades. Current state-of-the-art (SoA) methods like (piecewise) direct standardization perform well when suitable transfer standards are available. However, stable calibration standards that share similar (spectral) features with the calibration samples are not always available. Towards enabling CT with arbitrary calibration standards, we propose a novel CT technique that employs manifold regularization of the partial least squares (PLS) objective. In particular, our method enforces that calibration standards, measured on primary and secondary instruments, have (nearly) invariant projections in the latent variable space of the primary calibration model. Thereby, our approach implicitly removes inter-device variation in the predictive directions of X which is in contrast to most state-of-the-art techniques that employ explicit pre-processing of the input data. We test our approach on the well-known corn benchmark data set employing the NBS glass standard spectra for instrument standardization and compare the results with current SoA methods.
翻訳日:2022-11-26 23:14:19 公開日:2020-05-29
# 機械学習ファンドの分類

Machine Learning Fund Categorizations ( http://arxiv.org/abs/2006.00123v1 )

ライセンス: Link先を確認
Dhagash Mehta, Dhruv Desai, Jithin Pradeep(参考訳) 多様な金融投資としての相互資金(ETFを含む)の人気が高まり、様々な投資管理会社からの幅広い相互資金や多様化戦略が市場に出回っている。 営業やマーケティング、ポートフォリオの複製、ポートフォリオの多様化、税収の回収など、多くの応用があるため、このような幅広い相互資金の状況で同様の相互資金の特定がこれまで以上に重要になっている。 現在の最良の方法はデータベンダが提供する分類であり、通常は利用可能なデータの助けを借りて、人間の専門家によるキュレーションに依存する。 本研究は、機械学習を用いて、業界全体でよく認識された分類システムが学習可能であり、ほぼ再現可能であることを実証し、真のデータ駆動分類を構築する。 我々は,この人造システム学習における知的課題とその意義について論じる。

Given the surge in popularity of mutual funds (including exchange-traded funds (ETFs)) as a diversified financial investment, a vast variety of mutual funds from various investment management firms and diversification strategies have become available in the market. Identifying similar mutual funds among such a wide landscape of mutual funds has become more important than ever because of many applications ranging from sales and marketing to portfolio replication, portfolio diversification and tax loss harvesting. The current best method is data-vendor provided categorization which usually relies on curation by human experts with the help of available data. In this work, we establish that an industry wide well-regarded categorization system is learnable using machine learning and largely reproducible, and in turn constructing a truly data-driven categorization. We discuss the intellectual challenges in learning this man-made system, our results and their implications.
翻訳日:2022-11-26 23:13:32 公開日:2020-05-29
# 階層型深部畳み込みニューラルネットワークとGated Recurrent Unit Frameworkによる構造損傷検出

A Hierarchical Deep Convolutional Neural Network and Gated Recurrent Unit Framework for Structural Damage Detection ( http://arxiv.org/abs/2006.01045v1 )

ライセンス: Link先を確認
Jianxi Yang (1), Likai Zhang (1), Cen Chen (2), Yangfan Li (3), Ren Li (1), Guiping Wang (1), Shixin Jiang (1), Zeng Zeng (2) ((1) School of Information Science and Engineering, Chongqing Jiaotong University, (2) Institute for Infocomm Research (I2R), A*STAR, (3) College of Computer Science and Electronic Engineering, Hunan University)(参考訳) 構造的損傷検出は様々な工学分野の学際的な関心領域となり、利用可能な損傷検出手法は機械学習の概念に適応する過程にある。 ほとんどの機械学習ベースの手法は、ドメインの専門家が事前に手動で選択し、固定した‘手作り’の機能に大きく依存する。 近年,画像分類やオブジェクト検出などの従来の課題に対して,強力な特徴学習能力によって,ディープラーニングが顕著な性能を発揮している。 この突破口は、構造損傷検出問題に対するディープラーニング技術を探究するきっかけとなった。 しかし、既存の手法では空間的関係(例えば、畳み込みニューラルネットワーク(CNN))と時間的関係(例えば、長期記憶ネットワーク(LSTM))の両方を考慮している。 本研究では,HCGと呼ばれる空間的・時間的関係をモデル化し,構造的損傷検出のための新しい階層型CNNと Gated Recurrent Unit (GRU) フレームワークを提案する。 具体的には、CNNはセンサ間の空間的関係と短期的時間的依存関係をモデル化し、CNNの出力特性はGRUに入力され、長期的時間的依存関係を共同で学習する。 IASC-ASCE構造健康モニタリングベンチマークと3次元連続剛性フレームブリッジ構造データセットのスケールモデルによる大規模実験により,提案したHCGは他の構造損傷検出方法よりも優れた性能を示した。

Structural damage detection has become an interdisciplinary area of interest for various engineering fields, while the available damage detection methods are being in the process of adapting machine learning concepts. Most machine learning based methods heavily depend on extracted ``hand-crafted" features that are manually selected in advance by domain experts and then, fixed. Recently, deep learning has demonstrated remarkable performance on traditional challenging tasks, such as image classification, object detection, etc., due to the powerful feature learning capabilities. This breakthrough has inspired researchers to explore deep learning techniques for structural damage detection problems. However, existing methods have considered either spatial relation (e.g., using convolutional neural network (CNN)) or temporal relation (e.g., using long short term memory network (LSTM)) only. In this work, we propose a novel Hierarchical CNN and Gated recurrent unit (GRU) framework to model both spatial and temporal relations, termed as HCG, for structural damage detection. Specifically, CNN is utilized to model the spatial relations and the short-term temporal dependencies among sensors, while the output features of CNN are fed into the GRU to learn the long-term temporal dependencies jointly. Extensive experiments on IASC-ASCE structural health monitoring benchmark and scale model of three-span continuous rigid frame bridge structure datasets have shown that our proposed HCG outperforms other existing methods for structural damage detection significantly.
翻訳日:2022-11-26 23:13:17 公開日:2020-05-29
# 深部畳み込みキャンドルスティック学習者の対向ロバスト性

Adversarial Robustness of Deep Convolutional Candlestick Learner ( http://arxiv.org/abs/2006.03686v1 )

ライセンス: Link先を確認
Jun-Hao Chen and Samuel Yen-Chi Chen and Yun-Cheng Tsai and Chih-Shiang Shur(参考訳) ディープラーニング(DL)は幅広い分野に広く応用されている。 しかし、DLモデルは「emph{adversarial attack}」と呼ばれるある種の摂動の影響を受けやすいことが示されている。 金融取引などの重要な分野におけるdlの力を完全に解き放つためには、その課題に取り組む必要がある。 本稿では,摂動例を構築し,モデルのロバスト性を高めるためにこれらの例を用いる手法を提案する。 本アルゴリズムは, 入力データの摂動に対するキャンドルスティック分類のためのDLモデルの安定性を向上させる。

Deep learning (DL) has been applied extensively in a wide range of fields. However, it has been shown that DL models are susceptible to a certain kinds of perturbations called \emph{adversarial attacks}. To fully unlock the power of DL in critical fields such as financial trading, it is necessary to address such issues. In this paper, we present a method of constructing perturbed examples and use these examples to boost the robustness of the model. Our algorithm increases the stability of DL models for candlestick classification with respect to perturbations in the input data.
翻訳日:2022-11-26 23:12:51 公開日:2020-05-29
# 6自由度ポーズ推定のための2次元および3次元ディスクリプタの無拘束マッチング

Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose Estimation ( http://arxiv.org/abs/2005.14502v1 )

ライセンス: Link先を確認
Uzair Nadeem, Mohammed Bennamoun, Roberto Togneri, Ferdous Sohel(参考訳) 本稿では,2次元画像から抽出した特徴ディスクリプタと,3次元ポイントクラウドから抽出された特徴ディスクリプタとを直接マッチングする新しい概念を提案する。 私たちはこの概念を使って画像を3Dポイントクラウドに直接ローカライズします。 我々は,2D点と3D点をマッチングしたデータセットと,それに対応する特徴記述子を生成し,記述子-Matcher分類子を学習する。 テスト時に画像のポーズを局所化するために,クエリ画像からキーポイントと特徴記述子を抽出する。 トレーニングされたDescriptor-Matcherは、イメージとポイントクラウドの機能にマッチするために使用される。 マッチングされた特徴の位置は、ロバストなポーズ推定アルゴリズムでクエリ画像の位置と向きを予測するために使用される。 提案手法の有効性を検証するため,提案手法を屋内および屋外のシナリオに適用し,異なる種類の点雲を用いて広範囲に評価した。 実験結果から,画像と点雲からの特徴記述子の直接マッチングは,実現可能なアイデアであるだけでなく,任意の種類の3次元点雲におけるクエリカメラの6-DOFのポーズを高精度に推定するためにも,確実に利用できることが示された。

This paper proposes a novel concept to directly match feature descriptors extracted from 2D images with feature descriptors extracted from 3D point clouds. We use this concept to directly localize images in a 3D point cloud. We generate a dataset of matching 2D and 3D points and their corresponding feature descriptors, which is used to learn a Descriptor-Matcher classifier. To localize the pose of an image at test time, we extract keypoints and feature descriptors from the query image. The trained Descriptor-Matcher is then used to match the features from the image and the point cloud. The locations of the matched features are used in a robust pose estimation algorithm to predict the location and orientation of the query image. We carried out an extensive evaluation of the proposed method for indoor and outdoor scenarios and with different types of point clouds to verify the feasibility of our approach. Experimental results demonstrate that direct matching of feature descriptors from images and point clouds is not only a viable idea but can also be reliably used to estimate the 6-DOF poses of query cameras in any type of 3D point cloud in an unconstrained manner with high precision.
翻訳日:2022-11-26 23:12:43 公開日:2020-05-29
# 完全畳み込みニューラルネットワークを用いたOCT画像からの緑内障検出

Glaucoma Detection From Raw Circumapillary OCT Images Using Fully Convolutional Neural Networks ( http://arxiv.org/abs/2006.00027v1 )

ライセンス: Link先を確認
Gabriel Garc\'ia, Roc\'io del Amor, Adri\'an Colomer, Valery Naranjo(参考訳) 現在、緑内障は世界中で盲目の原因となっている。 本稿では,本論文で提案する2つの異なる深層学習に基づく緑内障検出手法を提案する。 1つ目は、スクラッチから訓練された畳み込みニューラルネットワーク(cnns)の開発に基づいている。 2つ目は、最も一般的な最先端のCNNアーキテクチャの微調整である。 実験は、網膜の視神経頭部の周囲に93個の緑内障と156個の正常なBスキャンからなるプライベートデータベース上で行われ、専門の眼科医によって診断された。 検証の結果、微調整されたCNNは、小さなデータベースに対処する際に、スクラッチからトレーニングされたネットワークよりも優れていることが証明された。 さらに、ネットワークのVGGファミリーは、独立したテストセットの予測において、ROC曲線0.96以下の領域と精度0.92の領域で最も有望な結果を報告している。

Nowadays, glaucoma is the leading cause of blindness worldwide. We propose in this paper two different deep-learning-based approaches to address glaucoma detection just from raw circumpapillary OCT images. The first one is based on the development of convolutional neural networks (CNNs) trained from scratch. The second one lies in fine-tuning some of the most common state-of-the-art CNNs architectures. The experiments were performed on a private database composed of 93 glaucomatous and 156 normal B-scans around the optic nerve head of the retina, which were diagnosed by expert ophthalmologists. The validation results evidence that fine-tuned CNNs outperform the networks trained from scratch when small databases are addressed. Additionally, the VGG family of networks reports the most promising results, with an area under the ROC curve of 0.96 and an accuracy of 0.92, during the prediction of the independent test set.
翻訳日:2022-11-26 23:12:22 公開日:2020-05-29
# 畳み込みニューラルネットワークへの決定性とロバスト性メトリクスの適用

Applying the Decisiveness and Robustness Metrics to Convolutional Neural Networks ( http://arxiv.org/abs/2006.00058v1 )

ライセンス: Link先を確認
Christopher A. George, Eduardo A. Barrera, Kenric P. Nelson(参考訳) 我々は最近提案された3つの分類器の品質指標をレビューし、1000クラスのImageNetデータセットに畳み込みニューラルネットワークを適用するなど、大規模な分類課題に適合性を検討する。 これらの測度は「幾何学的精度」、「決定性」、「難解性」と呼ばれ、分類器の自己申告および測定された正しい分類の確率の一般化平均(それぞれ0, 1, -2/3)に基づいている。 また、計量の定義を標準化するためのいくつかの小さな明確化も提案する。 これらの更新により、大規模データセット(ドイツのトラヒックサイン認識ベンチマークとimagenet)に作用する深層畳み込みニューラルネットワーク(alexnet と densenet)を用いてメトリクスを計算する例を示す。

We review three recently-proposed classifier quality metrics and consider their suitability for large-scale classification challenges such as applying convolutional neural networks to the 1000-class ImageNet dataset. These metrics, referred to as the "geometric accuracy," "decisiveness," and "robustness," are based on the generalized mean ($\rho$ equals 0, 1, and -2/3, respectively) of the classifier's self-reported and measured probabilities of correct classification. We also propose some minor clarifications to standardize the metric definitions. With these updates, we show some examples of calculating the metrics using deep convolutional neural networks (AlexNet and DenseNet) acting on large datasets (the German Traffic Sign Recognition Benchmark and ImageNet).
翻訳日:2022-11-26 23:06:25 公開日:2020-05-29
# 医用画像における異常局所化のためのサリエンシマップの有効性の評価

Assessing the validity of saliency maps for abnormality localization in medical imaging ( http://arxiv.org/abs/2006.00063v1 )

ライセンス: Link先を確認
Nishanth Thumbavanam Arun, Nathan Gaw, Praveer Singh, Ken Chang, Katharina Viktoria Hoebel, Jay Patel, Mishka Gidwani, Jayashree Kalpathy-Cramer(参考訳) 入力画像のどの領域がトレーニングされたニューラルネットワークの予測に最も関係しているかを評価するのに広く用いられている。 しかし,医療画像の文脈では,これらの手法の有効性を検証し,地上真理バウンディングボックスと重ね合わせて定量化する知見は得られていない。 本研究では,RSNA Pneumonia データセット上で,既存のサリエンシマップ手法の信頼性について検討した。 GradCAMはモデルパラメータやラベルのランダム化に最も敏感であり,モデルアーキテクチャには非常に依存していないことがわかった。

Saliency maps have become a widely used method to assess which areas of the input image are most pertinent to the prediction of a trained neural network. However, in the context of medical imaging, there is no study to our knowledge that has examined the efficacy of these techniques and quantified them using overlap with ground truth bounding boxes. In this work, we explored the credibility of the various existing saliency map methods on the RSNA Pneumonia dataset. We found that GradCAM was the most sensitive to model parameter and label randomization, and was highly agnostic to model architecture.
翻訳日:2022-11-26 23:06:11 公開日:2020-05-29
# MNBおよびSVM分類器を用いたバングラフェイクニュースの検出

Detection of Bangla Fake News using MNB and SVM Classifier ( http://arxiv.org/abs/2005.14627v1 )

ライセンス: Link先を確認
Md Gulzar Hussain, Md Rashidul Hasan, Mahmuda Rahman, Joy Protim, and Sakib Al Hasan(参考訳) フェイクニュースは多くのビジネスや政治的理由からかなりの数のニュースを目にしており、オンラインの世界では頻繁に取り上げられている。 オフラインコミュニティに多大な影響を与えている偽ニュースによって、人々は簡単に汚染される。 そのため、この地域の研究への関心が高まっている。 英語のテキストやその他の言語からの偽ニュースの検出に関する重要な研究が行われており、バングラ語ではごくわずかである。 私たちの研究は、ソーシャルメディアからバングラフェイクニュースを検出する実験的な分析を反映しています。 本研究では,MNB(Multinomial Naive Bayes)とSVM(Support Vector Machine)という2つの教師付き機械学習アルゴリズムを用いて,CountVectorizerによる偽ニュースの検出と,逆文書周波数ベクトル化器の機能抽出を行った。 提案手法では,記事の極性に応じて偽ニュースを検出する。 最後に、線形カーネルでのSVMの精度は96.64%で、MNBの精度は93.32%である。

Fake news has been coming into sight in significant numbers for numerous business and political reasons and has become frequent in the online world. People can get contaminated easily by these fake news for its fabricated words which have enormous effects on the offline community. Thus, interest in research in this area has risen. Significant research has been conducted on the detection of fake news from English texts and other languages but a few in Bangla Language. Our work reflects the experimental analysis on the detection of Bangla fake news from social media as this field still requires much focus. In this research work, we have used two supervised machine learning algorithms, Multinomial Naive Bayes (MNB) and Support Vector Machine (SVM) classifiers to detect Bangla fake news with CountVectorizer and Term Frequency - Inverse Document Frequency Vectorizer as feature extraction. Our proposed framework detects fake news depending on the polarity of the corresponding article. Finally, our analysis shows SVM with the linear kernel with an accuracy of 96.64% outperform MNB with an accuracy of 93.32%.
翻訳日:2022-11-26 23:05:52 公開日:2020-05-29
# AIベースのリソース割り当て:サーバレス環境での適応型自動スケーリングのための強化学習

AI-based Resource Allocation: Reinforcement Learning for Adaptive Auto-scaling in Serverless Environments ( http://arxiv.org/abs/2005.14410v1 )

ライセンス: Link先を確認
Lucia Schuler and Somaya Jamil and Niklas K\"uhl(参考訳) 近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。 大規模かつ低コストでユーザサービスを約束し、インフラストラクチャ管理の必要性を排除します。 クラウドプロバイダ側では、変動する需要を満たすために柔軟なリソース管理が必要である。 リソースの自動プロビジョニングとデプロビジョンによって実現できます。 商用およびオープンソースのサーバレスコンピューティングプラットフォームで一般的なアプローチは、ワークロードベースの自動スケーリングである。 最近進化したサーバレスフレームワークであるKnativeでは、リクエストベースのポリシが提案されている。アルゴリズムは、インスタンス毎に並列に処理可能な最大数のリクエストによって、リソースをスケールする。 ベースライン実験で示したように、この事前定義された並行処理レベルは、サーバーレスアプリケーションのパフォーマンスに強く影響を与えます。 しかし、サービスの最高の品質をもたらす並行性構成を特定することは、さまざまなワークロードや複雑なインフラストラクチャ特性など、スループットやレイテンシに影響を与えるさまざまな要因のため、難しい作業である。 仮想マシンのプロビジョニングに自動スケーリングを最適化するためのインテリジェントな技術の研究が盛んに行われているが、この話題はサーバーレスコンピューティングの分野ではまだ議論されていない。 このため、動的仮想マシンプロビジョニングで実証された強化学習アプローチを、サーバレスフレームワークにおける要求ベースの自動スケーリングに適用可能であるかを検討する。 その結果,提案モデルでは,少数のイテレーションで,ワークロード毎に効果的なスケーリングポリシを学習し,デフォルトの自動スケーリング構成と比較してパフォーマンスが向上することが示された。

Serverless computing has emerged as a compelling new paradigm of cloud computing models in recent years. It promises the user services at large scale and low cost while eliminating the need for infrastructure management. On cloud provider side, flexible resource management is required to meet fluctuating demand. It can be enabled through automated provisioning and deprovisioning of resources. A common approach among both commercial and open source serverless computing platforms is workload-based auto-scaling, where a designated algorithm scales instances according to the number of incoming requests. In the recently evolving serverless framework Knative a request-based policy is proposed, where the algorithm scales resources by a configured maximum number of requests that can be processed in parallel per instance, the so-called concurrency. As we show in a baseline experiment, this predefined concurrency level can strongly influence the performance of a serverless application. However, identifying the concurrency configuration that yields the highest possible quality of service is a challenging task due to various factors, e.g. varying workload and complex infrastructure characteristics, influencing throughput and latency. While there has been considerable research into intelligent techniques for optimizing auto-scaling for virtual machine provisioning, this topic has not yet been discussed in the area of serverless computing. For this reason, we investigate the applicability of a reinforcement learning approach, which has been proven on dynamic virtual machine provisioning, to request-based auto-scaling in a serverless framework. Our results show that within a limited number of iterations our proposed model learns an effective scaling policy per workload, improving the performance compared to the default auto-scaling configuration.
翻訳日:2022-11-26 23:05:35 公開日:2020-05-29
# DC-NAS: ダイバード・アンド・コンキュアニューラルアーキテクチャ検索

DC-NAS: Divide-and-Conquer Neural Architecture Search ( http://arxiv.org/abs/2005.14456v1 )

ライセンス: Link先を確認
Yunhe Wang, Yixing Xu, Dacheng Tao(参考訳) ほとんどのアプリケーションは、限られたリソースを消費する高性能なディープニューラルネットワークを必要とする。 ニューラルネットワークは、与えられた巨大な検索空間内で最適なディープニューラルネットワークを自動的に探索する方法である。 しかしながら、すべてのサブネットワークは、通常同じ基準を用いて評価される。すなわち、不正確で複雑なアプローチであるトレーニングデータセットのごく一部に早期停止する。 本稿では,従来の手法とは対照的に,ディープニューラルアーキテクチャを効果的かつ効率的に探索するための分断探索(dc)手法を提案する。 任意の探索空間が与えられると、まず各層のパラメータや出力特性の変化に応じて全てのサブネットワークの特徴表現を抽出し、その表現に基づいて2つの異なるサンプルネットワーク間の類似度を計算する。 次に、k平均クラスタリングを行い、同一クラスタに類似したアーキテクチャを集約し、各クラスタでサブネットワーク評価を別々に実行する。 各クラスタの最適なアーキテクチャは後にマージされ、最適なニューラルネットワークアーキテクチャを得る。 いくつかのベンチマークで実施された実験結果は、DC-NASが不正確な評価問題を克服し、ImageNetデータセットで75.1\%$ Top-1精度を実現していることを示している。

Most applications demand high-performance deep neural architectures costing limited resources. Neural architecture searching is a way of automatically exploring optimal deep neural networks in a given huge search space. However, all sub-networks are usually evaluated using the same criterion; that is, early stopping on a small proportion of the training dataset, which is an inaccurate and highly complex approach. In contrast to conventional methods, here we present a divide-and-conquer (DC) approach to effectively and efficiently search deep neural architectures. Given an arbitrary search space, we first extract feature representations of all sub-networks according to changes in parameters or output features of each layer, and then calculate the similarity between two different sampled networks based on the representations. Then, a k-means clustering is conducted to aggregate similar architectures into the same cluster, separately executing sub-network evaluation in each cluster. The best architecture in each cluster is later merged to obtain the optimal neural architecture. Experimental results conducted on several benchmarks illustrate that DC-NAS can overcome the inaccurate evaluation problem, achieving a $75.1\%$ top-1 accuracy on the ImageNet dataset, which is higher than that of state-of-the-art methods using the same search space.
翻訳日:2022-11-26 22:56:58 公開日:2020-05-29
# ラグランジアン力学に基づく物理形ニューラルネットワークによるシステムダイナミクスのモデリング

Modeling System Dynamics with Physics-Informed Neural Networks Based on Lagrangian Mechanics ( http://arxiv.org/abs/2005.14617v1 )

ライセンス: Link先を確認
Manuel A. Roehrl, Thomas A. Runkler, Veronika Brandtstetter, Michel Tokic, Stefan Obermayer(参考訳) 様々な技術システムのシミュレーションと制御には、正確な動的モデルを同定する必要がある。 しかしながら、多くの重要な現実世界のアプリケーションでは、2つの主要なモデリングアプローチは要求を満たすことができないことが多い。 さらに、純粋なデータベースモデルは大量のデータを必要とすることが多く、解釈が難しいことが多い。 本稿では,2つのモデリング手法を組み合わせるハイブリッドモデルとして,物理インフォームドニューラル常微分方程式(PINODE)を提案する。 この新しいアプローチでは、ラグランジュ力学に由来する運動方程式を直接ディープニューラルネットワーク構造に組み込む。 したがって、利用可能な物理知識を統合することができ、機能近似(例えば、ニューラルネットワーク)を使うことができます。 この方法は、不確実性が大きい実世界の物理システムの前方モデルを用いてテストされる。 結果のモデルは正確でデータ効率が良く、物理的妥当性は保証される。 これにより、物理的洞察と実データとを有益に融合する手法を実証する。 本研究の目的は,機械系のモデルベース制御とシステム同定である。

Identifying accurate dynamic models is required for the simulation and control of various technical systems. In many important real-world applications, however, the two main modeling approaches often fail to meet requirements: first principles methods suffer from high bias, whereas data-driven modeling tends to have high variance. Additionally, purely data-based models often require large amounts of data and are often difficult to interpret. In this paper, we present physics-informed neural ordinary differential equations (PINODE), a hybrid model that combines the two modeling techniques to overcome the aforementioned problems. This new approach directly incorporates the equations of motion originating from the Lagrange Mechanics into a deep neural network structure. Thus, we can integrate prior physics knowledge where it is available and use function approximation--e. g., neural networks--where it is not. The method is tested with a forward model of a real-world physical system with large uncertainties. The resulting model is accurate and data-efficient while ensuring physical plausibility. With this, we demonstrate a method that beneficially merges physical insight with real data. Our findings are of interest for model-based control and system identification of mechanical systems.
翻訳日:2022-11-26 22:56:10 公開日:2020-05-29
# 機械学習応用のための準正規符号化

Quasi-orthonormal Encoding for Machine Learning Applications ( http://arxiv.org/abs/2006.00038v1 )

ライセンス: Link先を確認
Haw-minn Lu(参考訳) ほとんどの機械学習モデル、特に人工ニューラルネットワークは、分類データではなく数値を必要とする。 共通符号化方式の利点と欠点を簡潔に述べる。 例えば、ワンホットエンコーディングは、いくつかの無関係なカテゴリを持つ属性と、関連するカテゴリ(例えば、単語)を持つ属性のための単語埋め込みに一般的に使用される。 医療アプリケーションにおける診断コードなど、多くの無関係なカテゴリの属性のエンコーディングにも適していない。 例えば、診断コードへのone-hotエンコーディングの適用は、必要となる計算リソースの爆発を言うまでもなく、サンプルサイズの問題や人工的に機械学習アーティファクトを誘導する非常に高い次元をもたらす可能性がある。 準orthonormal encoding (qoe) がそのギャップを埋める。 QOEとワンホットエンコーディングを比較した。 本稿では、TensorflowやPyTorchといった一般的なMLライブラリを用いたQOEの実装例と、MNISTの筆跡サンプルに対するQOEのデモについて述べる。

Most machine learning models, especially artificial neural networks, require numerical, not categorical data. We briefly describe the advantages and disadvantages of common encoding schemes. For example, one-hot encoding is commonly used for attributes with a few unrelated categories and word embeddings for attributes with many related categories (e.g., words). Neither is suitable for encoding attributes with many unrelated categories, such as diagnosis codes in healthcare applications. Application of one-hot encoding for diagnosis codes, for example, can result in extremely high dimensionality with low sample size problems or artificially induce machine learning artifacts, not to mention the explosion of computing resources needed. Quasi-orthonormal encoding (QOE) fills the gap. We briefly show how QOE compares to one-hot encoding. We provide example code of how to implement QOE using popular ML libraries such as Tensorflow and PyTorch and a demonstration of QOE to MNIST handwriting samples.
翻訳日:2022-11-26 22:55:25 公開日:2020-05-29
# 数ショット学習のための高次構造保存グラフニューラルネットワーク

High-order structure preserving graph neural network for few-shot learning ( http://arxiv.org/abs/2005.14415v1 )

ライセンス: Link先を確認
Guangfeng Lin, Ying Yang, Yindi Fan, Xiaobing Kang, Kaiyang Liao, and Fan Zhao(参考訳) メタラーニングの類似度尺度を用いて,先行知識とクエリーデータの間の潜在構造情報を抽出し,希少なラベル付きサンプルを用いて新たなカテゴリを認識する識別モデルを構築する。 既存の手法の多くは、タスク内のサンプルの類似関係をモデル化し、新しいカテゴリを特定するためにモデルを一般化しようとする。 しかし,各タスクにおける測定基準が異なるため,分離されたタスク間のサンプルの関係は困難である。 これとは対照的に,提案した高次構造保存グラフニューラルネットワーク(HOSP-GNN)は,高次構造関係(複数サンプルの相対測定値)を多様体構造制約と反復的に更新することにより,グラフ上のクエリーデータのラベルを予測するために,サンプルのリッチな構造をさらに探求することができる。 HOSP-GNNは、メタラーニングにおいて異なるタスクに分けられるサンプル間の関連性を補完する高次構造をマイニングするだけでなく、多様体制約によって更新される構造規則を生成することができる。 さらに、HOSP-GNNは新しいクラスを認識するために学習モデルを再訓練する必要はない。 実験の結果,HOSP-GNNは miniImageNet, tieredImageNet, FC100 の3つのベンチマークデータセットにおいて,教師付きおよび半教師付き小ショット学習における最先端の手法よりも優れていた。

Few-shot learning can find the latent structure information between the prior knowledge and the queried data by the similarity metric of meta-learning to construct the discriminative model for recognizing the new categories with the rare labeled samples. Most existing methods try to model the similarity relationship of the samples in the intra tasks, and generalize the model to identify the new categories. However, the relationship of samples between the separated tasks is difficultly considered because of the different metric criterion in the respective tasks. In contrast, the proposed high-order structure preserving graph neural network(HOSP-GNN) can further explore the rich structure of the samples to predict the label of the queried data on graph that enables the structure evolution to explicitly discriminate the categories by iteratively updating the high-order structure relationship (the relative metric in multi-samples,instead of pairwise sample metric) with the manifold structure constraints. HOSP-GNN can not only mine the high-order structure for complementing the relevance between samples that may be divided into the different task in meta-learning, and but also generate the rule of the structure updating by manifold constraint. Furthermore, HOSP-GNN doesn't need retrain the learning model for recognizing the new classes, and HOSP-GNN has the well-generalizable high-order structure for model adaptability. Experiments show that HOSP-GNN outperforms the state-of-the-art methods on supervised and semi-supervised few-shot learning in three benchmark datasets that are miniImageNet, tieredImageNet and FC100.
翻訳日:2022-11-26 22:54:32 公開日:2020-05-29
# SLAMにインスパイアされたインクリメンタル会話文の同時文脈化と解釈

SLAM-Inspired Simultaneous Contextualization and Interpreting for Incremental Conversation Sentences ( http://arxiv.org/abs/2005.14662v1 )

ライセンス: Link先を確認
Yusuke Takimoto, Yosuke Fukuchi, Shoya Matsumori, Michita Imai(参考訳) 単語の分散表現は多くの自然言語タスクのパフォーマンスを改善した。 しかし、多くの手法では単語の1つのラベルに対して1つの意味しか考慮されておらず、文脈によって多義語の複数の意味が扱われることはほとんどない。 研究は多義語を取り扱っているが、大文書の一括によってその意味を決定づけている。 したがって、あいまいな表現を含む会話のように、逐次文にこれらの方法を適用することには2つの問題がある。 第1の問題は、文脈と単語解釈の相互依存を順次処理できないことであり、文脈は単語解釈によって決定され、単語解釈は文脈によって決定される。 したがって、複数の解釈を追求するためにコンテキスト推定を並列に行う必要がある。 第2の問題は、従来の手法では、新しい解釈のオフライン学習に大規模な文セットを使用しており、学習と推論のステップが明確に分離されていることである。 このようなオフライン学習は会話中に新しい解釈を得ることができない。 そこで, 逐次文における多文単語の会話状況と解釈を動的に推定するために, 従来のSLAMアルゴリズムに基づくSCAIN(Symtaneous Contextualization and Interpreting)手法を提案する。 SCAINアルゴリズムを用いることで、文脈と単語の解釈の相互依存性を逐次最適化し、新しい解釈をオンラインで得ることができる。 実験的な評価のために、wikipediaの曖昧さ回避ページと実際の会話の2つのデータセットを作成しました。 両データセットにおいて,scainは相互依存の逐次最適化と新しい解釈の獲得を効果的に達成できることを確認した。

Distributed representation of words has improved the performance for many natural language tasks. In many methods, however, only one meaning is considered for one label of a word, and multiple meanings of polysemous words depending on the context are rarely handled. Although research works have dealt with polysemous words, they determine the meanings of such words according to a batch of large documents. Hence, there are two problems with applying these methods to sequential sentences, as in a conversation that contains ambiguous expressions. The first problem is that the methods cannot sequentially deal with the interdependence between context and word interpretation, in which context is decided by word interpretations and the word interpretations are decided by the context. Context estimation must thus be performed in parallel to pursue multiple interpretations. The second problem is that the previous methods use large-scale sets of sentences for offline learning of new interpretations, and the steps of learning and inference are clearly separated. Such methods using offline learning cannot obtain new interpretations during a conversation. Hence, to dynamically estimate the conversation context and interpretations of polysemous words in sequential sentences, we propose a method of Simultaneous Contextualization And INterpreting (SCAIN) based on the traditional Simultaneous Localization And Mapping (SLAM) algorithm. By using the SCAIN algorithm, we can sequentially optimize the interdependence between context and word interpretation while obtaining new interpretations online. For experimental evaluation, we created two datasets: one from Wikipedia's disambiguation pages and the other from real conversations. For both datasets, the results confirmed that SCAIN could effectively achieve sequential optimization of the interdependence and acquisition of new interpretations.
翻訳日:2022-11-26 22:47:33 公開日:2020-05-29
# フレーム意味論に基づくデジタルコーパスの比較研究

A frame semantics based approach to comparative study of digitized corpus ( http://arxiv.org/abs/2006.00113v1 )

ライセンス: Link先を確認
Abdelaziz Lakhfif and Mohamed Tayeb Laskri(参考訳) 本稿では,デジタル化された古典的多言語小説と物語テキストを意味論的観点から分析するためのコーパス言語学に基づくアプローチを提案する。 the hobbit (torkien j. r. r., 1937) や "the hound of the baskervilles (doyle a. c. 1901-1902) のようなデジタル化された小説は数十の言語に翻訳され、言語学、哲学、認知科学などの分野において言語の違いを分析するための豊富な資料を提供している。 本稿では,本論文の事例として,デジタル化小説から作成された英語・アラビア語対応コーパスの形態的,構文的,意味的アノテーションプロセスに注目し,フレームセマンティックスの観点から,英語・アラビア語の動作イベントの言語的エンコーディングを再検討する。 本研究は,言語間の動作事象概念化の相違をフレーム構造とフレーム間関係で記述できると主張している。

in this paper, we present a corpus linguistics based approach applied to analyzing digitized classical multilingual novels and narrative texts, from a semantic point of view. Digitized novels such as "the hobbit (Tolkien J. R. R., 1937)" and "the hound of the Baskervilles (Doyle A. C. 1901-1902)", which were widely translated to dozens of languages, provide rich materials for analyzing languages differences from several perspectives and within a number of disciplines like linguistics, philosophy and cognitive science. Taking motion events conceptualization as a case study, this paper, focus on the morphologic, syntactic, and semantic annotation process of English-Arabic aligned corpus created from a digitized novels, in order to re-examine the linguistic encodings of motion events in English and Arabic in terms of Frame Semantics. The present study argues that differences in motion events conceptualization across languages can be described with frame structure and frame-to-frame relations.
翻訳日:2022-11-26 22:47:08 公開日:2020-05-29
# 画像キャプションにおける長さ制御

Controlling Length in Image Captioning ( http://arxiv.org/abs/2005.14386v1 )

ライセンス: Link先を確認
Ruotian Luo and Greg Shakhnarovich(参考訳) キャプション長の制御が可能なキャプションモデルを開発し,評価する。 我々のモデルは、この制御を利用して異なるスタイルと記述性のキャプションを生成することができる。

We develop and evaluate captioning models that allow control of caption length. Our models can leverage this control to generate captions of different style and descriptiveness.
翻訳日:2022-11-26 22:46:49 公開日:2020-05-29
# 現代問題におけるスタンス予測:データと実験

Stance Prediction for Contemporary Issues: Data and Experiments ( http://arxiv.org/abs/2006.00052v1 )

ライセンス: Link先を確認
Marjan Hosseinia, Eduard Dragut and Arjun Mukherjee(参考訳) 本稿では,感情情報と感情情報を含む事前学習された双方向トランスフォーマーが,現代の課題の長期にわたる議論において,姿勢検出を改善するか否かを検討する。 本研究の一環として,Procon.orgが非党派形式で収集した419の異なる問題とその関連するプロスとコンスをカバーする新しい姿勢検出データセットを作成する。 実験結果から、感情情報や感情情報を含む浅い再帰ニューラルネットワークは、20倍のパラメータを持つ微調整BERTと比較して、競合する結果が得られることが示された。 また、どの入力句がスタンス検出に寄与するかを説明するシンプルなアプローチを用いる。

We investigate whether pre-trained bidirectional transformers with sentiment and emotion information improve stance detection in long discussions of contemporary issues. As a part of this work, we create a novel stance detection dataset covering 419 different controversial issues and their related pros and cons collected by procon.org in nonpartisan format. Experimental results show that a shallow recurrent neural network with sentiment or emotion information can reach competitive results compared to fine-tuned BERT with 20x fewer parameters. We also use a simple approach that explains which input phrases contribute to stance detection.
翻訳日:2022-11-26 22:46:24 公開日:2020-05-29
# LinkedInにおけるDeep Job Understanding

Deep Job Understanding at LinkedIn ( http://arxiv.org/abs/2006.12425v1 )

ライセンス: Link先を確認
Shan Li, Baoxu Shi, Jaewon Yang, Ji Yan, Shuai Wang, Fei Chen, Qi He(参考訳) 世界最大のプロフェッショナルネットワークであるLinkedInは、グローバルな労働者全員に経済的機会を創り出そうとしている。 最も重要なミッションの1つは、仕事とプロセスの整合性です。 ジョブターゲティングの精度の向上と採用効率の向上は、LinkedInのメンバファーストモットーと一致している。 これらの目標を達成するには、ノイズのある情報を含む非構造化ジョブポストを理解する必要がある。 ドメイン固有のジョブ理解モデルを作成するために、Deep Transfer Learningを適用した。 その後、職業は、肩書き、技能、会社、評価問題を含む専門職によって表される。 linkedinのジョブ理解能力を継続的に改善するために、我々は、linkedinの製品にジョブ理解モデルを統合し、ジョブポスターのフィードバックを集めるエキスパートフィードバックループを設計しました。 このデモでは、LinkedInの求人フローを示し、統合されたディープジョブ理解作業が、求人ポスターの満足度をいかに向上させ、LinkedInの求人推薦システムにおいて重要なメトリクスリフトを提供するかを示す。

As the world's largest professional network, LinkedIn wants to create economic opportunity for everyone in the global workforce. One of its most critical missions is matching jobs with processionals. Improving job targeting accuracy and hire efficiency align with LinkedIn's Member First Motto. To achieve those goals, we need to understand unstructured job postings with noisy information. We applied deep transfer learning to create domain-specific job understanding models. After this, jobs are represented by professional entities, including titles, skills, companies, and assessment questions. To continuously improve LinkedIn's job understanding ability, we designed an expert feedback loop where we integrated job understanding models into LinkedIn's products to collect job posters' feedback. In this demonstration, we present LinkedIn's job posting flow and demonstrate how the integrated deep job understanding work improves job posters' satisfaction and provides significant metric lifts in LinkedIn's job recommendation system.
翻訳日:2022-11-26 22:46:16 公開日:2020-05-29
# LWFチェーングラフの学習 - Markov Blanketディスカバリアプローチ

Learning LWF Chain Graphs: A Markov Blanket Discovery Approach ( http://arxiv.org/abs/2006.00970v1 )

ライセンス: Link先を確認
Mohammad Ali Javidian and Marco Valtorta and Pooyan Jamshidi(参考訳) 本稿では,lauritzen-wermuth-frydenberg (lwf) 解釈に基づく連鎖グラフ (cgs) におけるマルコフブランケットのグラフィカルな特徴について述べる。 特徴づけはベイズネットワークのよく知られたものと異なり、一般化される。 我々は,LWF CGにおけるマルコフブランケット発見のための新しいスケーラブルで健全なアルゴリズムを提案し,ベイズネットワークと同じ仮定の下で,Grow-Shrinkアルゴリズム,IAMBアルゴリズム,およびその変種が依然としてLWF CGにおけるマルコフブランケット発見に対して正しいことを証明した。 本稿では,忠実な因果関係に十分なデータからLWF CGの構造を学習し,マルコフ毛布発見アルゴリズムを用いてその正確性を証明するための,健全でスケーラブルな制約ベースのフレームワークを提案する。 提案アルゴリズムは,マルコフの毛布発見に使用されるアルゴリズムに依存し,最先端のLCD (DecompositionによるLearn Chain graphs) アルゴリズムと正・競合的に比較する。 提案アルゴリズムは局所性を利用するため,幅広い推論/学習問題を計算的に抽出可能で信頼性が高い。

This paper provides a graphical characterization of Markov blankets in chain graphs (CGs) under the Lauritzen-Wermuth-Frydenberg (LWF) interpretation. The characterization is different from the well-known one for Bayesian networks and generalizes it. We provide a novel scalable and sound algorithm for Markov blanket discovery in LWF CGs and prove that the Grow-Shrink algorithm, the IAMB algorithm, and its variants are still correct for Markov blanket discovery in LWF CGs under the same assumptions as for Bayesian networks. We provide a sound and scalable constraint-based framework for learning the structure of LWF CGs from faithful causally sufficient data and prove its correctness when the Markov blanket discovery algorithms in this paper are used. Our proposed algorithms compare positively/competitively against the state-of-the-art LCD (Learn Chain graphs via Decomposition) algorithm, depending on the algorithm that is used for Markov blanket discovery. Our proposed algorithms make a broad range of inference/learning problems computationally tractable and more reliable because they exploit locality.
翻訳日:2022-11-26 22:45:53 公開日:2020-05-29
# 多段階マルコフ遷移確率による教師なし特徴選択

Unsupervised Feature Selection via Multi-step Markov Transition Probability ( http://arxiv.org/abs/2005.14359v1 )

ライセンス: Link先を確認
Yan Min, Mao Ye, Liang Tian, Yulin Jian, Ce Zhu, Shangming Yang(参考訳) 特徴選択は、その解釈可能性のために特徴サブセットを選択するために広く使われる次元縮小技術である。 多くの手法が提案され、隣接するデータポイント間の関係が主に関係する良い結果が得られた。 しかし、隣接しないかもしれないデータペア間の関連性は常に無視される。 従来の手法とは違って,MMFS (Multi-step Markov transition probability for Feature Selection) という,教師なし特徴選択のための新しい,非常にシンプルなアプローチを提案する。 この考え方は、任意のデータペア間の関係を記述するためにマルチステップマルコフ遷移確率を使用する。 特徴選択後のデータ構造を維持するために, 肯定的視点と否定的視点の2つの方法を用いる。 正の観点では、あるステップ数で到達可能な最大遷移確率は、2つの点の間の関係を記述するために用いられる。 そして、コンパクトなデータ構造を保持することができる特徴を選択する。 負の観点から、あるステップ数で到達可能な最小遷移確率は、2つの点の間の関係を記述するために用いられる。 逆に、ゆるいデータ構造を最小に維持する特徴が選択される。 そしてこの2つの方法を組み合わせることもできる。 3つのアルゴリズムが提案されている。 提案手法の主な貢献は,多段階遷移確率を用いてデータ構造を特徴付ける新しい特徴区間アプローチと,データ構造を維持するための正負の側面から提案される3つのアルゴリズムである。 提案手法の性能を実世界の8つのデータセットの最先端手法と比較し,提案手法が教師なし特徴選択に有効であることを示す実験結果を得た。

Feature selection is a widely used dimension reduction technique to select feature subsets because of its interpretability. Many methods have been proposed and achieved good results, in which the relationships between adjacent data points are mainly concerned. But the possible associations between data pairs that are may not adjacent are always neglected. Different from previous methods, we propose a novel and very simple approach for unsupervised feature selection, named MMFS (Multi-step Markov transition probability for Feature Selection). The idea is using multi-step Markov transition probability to describe the relation between any data pair. Two ways from the positive and negative viewpoints are employed respectively to keep the data structure after feature selection. From the positive viewpoint, the maximum transition probability that can be reached in a certain number of steps is used to describe the relation between two points. Then, the features which can keep the compact data structure are selected. From the viewpoint of negative, the minimum transition probability that can be reached in a certain number of steps is used to describe the relation between two points. On the contrary, the features that least maintain the loose data structure are selected. And the two ways can also be combined. Thus three algorithms are proposed. Our main contributions are a novel feature section approach which uses multi-step transition probability to characterize the data structure, and three algorithms proposed from the positive and negative aspects for keeping data structure. The performance of our approach is compared with the state-of-the-art methods on eight real-world data sets, and the experimental results show that the proposed MMFS is effective in unsupervised feature selection.
翻訳日:2022-11-26 22:45:32 公開日:2020-05-29
# 第1回 ニューラル・コンジェクション・データセットと実験

First Neural Conjecturing Datasets and Experiments ( http://arxiv.org/abs/2005.14664v1 )

ライセンス: Link先を確認
Josef Urban and Jan Jakub\r{u}v(参考訳) いくつかのデータセットと、ニューラルネットワークによる予測を作成するための最初の実験について述べる。 データセットは、いくつかの形式で処理されたMizar Mathematical Libraryと、MPTPシステムによって抽出された問題に基づいており、ENIGMAガイダンスを用いてE証明者によって証明されている。 導出実験では Transformer アーキテクチャ、特に GPT-2 の実装が使用されている。

We describe several datasets and first experiments with creating conjectures by neural methods. The datasets are based on the Mizar Mathematical Library processed in several forms and the problems extracted from it by the MPTP system and proved by the E prover using the ENIGMA guidance. The conjecturing experiments use the Transformer architecture and in particular its GPT-2 implementation.
翻訳日:2022-11-26 22:38:49 公開日:2020-05-29
# SAFER: 単語置換に対するロバスト性認定のための非構造的アプローチ

SAFER: A Structure-free Approach for Certified Robustness to Adversarial Word Substitutions ( http://arxiv.org/abs/2005.14424v1 )

ライセンス: Link先を確認
Mao Ye, Chengyue Gong, Qiang Liu(参考訳) 最先端のNLPモデルは、同義語置換のような人間を意識しない変換によってしばしば騙される。 セキュリティ上の理由から、予測が任意の同義語置換によって変更できないことを確実に保証できる、認証された堅牢性を持つモデルを開発することが重要である。 本研究では,ランダムな単語置換を入力文に適用して確率的アンサンブルを構築する新しいランダム化平滑化手法に基づく認証ロバスト手法を提案し,ロバスト性を保証するためにアンサンブルの統計的特性を活用する。 提案手法は,モデル出力のブラックボックスクエリのみを必要とするため,事前学習されたモデル(BERTなど)や,任意の種類のモデル(ワールドレベルやサブワードレベル)に適用可能である。 本手法は,IMDBとAmazonのテキスト分類タスクにおいて,信頼性の高いロバスト性を示す最新手法を著しく上回っている。 私たちの知る限りでは、bertのような大規模システムにおいて、事実上有意義な認証精度で認証堅牢性を達成した最初の仕事です。

State-of-the-art NLP models can often be fooled by human-unaware transformations such as synonymous word substitution. For security reasons, it is of critical importance to develop models with certified robustness that can provably guarantee that the prediction is can not be altered by any possible synonymous word substitution. In this work, we propose a certified robust method based on a new randomized smoothing technique, which constructs a stochastic ensemble by applying random word substitutions on the input sentences, and leverage the statistical properties of the ensemble to provably certify the robustness. Our method is simple and structure-free in that it only requires the black-box queries of the model outputs, and hence can be applied to any pre-trained models (such as BERT) and any types of models (world-level or subword-level). Our method significantly outperforms recent state-of-the-art methods for certified robustness on both IMDB and Amazon text classification tasks. To the best of our knowledge, we are the first work to achieve certified robustness on large systems such as BERT with practically meaningful certified accuracy.
翻訳日:2022-11-26 22:38:32 公開日:2020-05-29
# 対話エージェントによるユーザ満足度予測のための大規模ハイブリッドアプローチ

Large-scale Hybrid Approach for Predicting User Satisfaction with Conversational Agents ( http://arxiv.org/abs/2006.07113v1 )

ライセンス: Link先を確認
Dookun Park, Hao Yuan, Dongmin Kim, Yinglei Zhang, Matsoukas Spyros, Young-Bum Kim, Ruhi Sarikaya, Edward Guo, Yuan Ling, Kevin Quinn, Pham Hung, Benjamin Yao, Sungjin Lee(参考訳) ユーザ満足度の測定は困難な作業であり、実際のユーザのニーズに応える大規模な対話型エージェントシステムの開発において重要な要素である。 これに取り組むために広く使われているアプローチは、人間のアノテーションデータを収集し、それらを評価やモデリングに使用することである。 人間のアノテーションに基づくアプローチは簡単に制御できるが、スケールするのは難しい。 新しいアプローチは、会話エージェントシステムに埋め込まれたフィードバック誘発システムを介してユーザの直接フィードバックを収集し、収集されたユーザフィードバックを使用して、機械学習モデルの一般化を訓練する。 ユーザフィードバックは、ユーザ満足のための最良のプロキシですが、いくつかの不適切な意図や特定の状況では利用できません。 したがって、これらの2つのアプローチは相補的である。 本研究では,明示的なユーザフィードバックと2つの機械学習モデルから推定されるユーザ満足度予測と,ユーザフィードバックデータと他の人間のアノテーションデータとを融合したハイブリッドアプローチを用いて,ユーザ満足度評価問題に取り組む。 ハイブリッドアプローチはウォーターフォールポリシに基づいており、amazon alexaの大規模データセットによる実験結果は、ユーザの満足度を推測する上で大きな改善を示している。 本稿では,詳細なハイブリッドアーキテクチャ,ユーザフィードバックデータに関する詳細な分析,およびライブトラフィックを適切にシミュレートするデータセットを生成するアルゴリズムについて述べる。

Measuring user satisfaction level is a challenging task, and a critical component in developing large-scale conversational agent systems serving the needs of real users. An widely used approach to tackle this is to collect human annotation data and use them for evaluation or modeling. Human annotation based approaches are easier to control, but hard to scale. A novel alternative approach is to collect user's direct feedback via a feedback elicitation system embedded to the conversational agent system, and use the collected user feedback to train a machine-learned model for generalization. User feedback is the best proxy for user satisfaction, but is not available for some ineligible intents and certain situations. Thus, these two types of approaches are complementary to each other. In this work, we tackle the user satisfaction assessment problem with a hybrid approach that fuses explicit user feedback, user satisfaction predictions inferred by two machine-learned models, one trained on user feedback data and the other human annotation data. The hybrid approach is based on a waterfall policy, and the experimental results with Amazon Alexa's large-scale datasets show significant improvements in inferring user satisfaction. A detailed hybrid architecture, an in-depth analysis on user feedback data, and an algorithm that generates data sets to properly simulate the live traffic are presented in this paper.
翻訳日:2022-11-26 22:37:31 公開日:2020-05-29
# プログレッシブグローングアンビエントGANを用いた医用画像計測による確率的物体モデルの学習

Learning stochastic object models from medical imaging measurements using Progressively-Growing AmbientGANs ( http://arxiv.org/abs/2006.00033v1 )

ライセンス: Link先を確認
Weimin Zhou, Sayantan Bhadra, Frank J. Brooks, Hua Li, Mark A. Anastasio(参考訳) 特定の診断タスクにおける観察者のパフォーマンスを定量化する画像品質の客観的尺度を用いて、医用画像システムと再構成アルゴリズムの評価と最適化を行うことが提唱されている。 オブザーバのパフォーマンスを著しく制限できる変数の1つの重要な源は、イメージすべきオブジェクトの変化である。 この変数の源は確率的オブジェクトモデル(SOM)によって記述できる。 SOMは、所定の統計特性を持つ画像オブジェクトのアンサンブルを確立するために使用できる生成モデルである。 解剖学的構造や物体のテクスチャの変化を正確にモデル化するためには, 良好な画像処理システムを用いて得られた実験画像計測からSOMを確立することが望ましい。 generative adversarial networks (gans) のようなディープジェネレーティブニューラルネットワークは、このタスクに大きな可能性を秘めている。 しかし、従来のganは、測定ノイズや再構成過程の影響による再構成画像を用いて訓練されるのが一般的である。 これを回避するため、AmbientGANは測定演算子でGANを増強する提案がなされている。 しかし、オリジナルのAmbientGANは、プログレッシブ成長のような、現実的な大きさの医療画像データに適用できる能力を制限した近代的な訓練手順の恩恵を受けられなかった。 これを回避するため, 医療画像計測からSOMを確立するための新しいプログレッシブ・グローディング・アンビエントGAN(ProAmGAN)戦略を開発した。 一般的な医用画像モダリティに対応するスチル化数値解析を行い,SOMの確立方法の実証と検証を行った。

It has been advocated that medical imaging systems and reconstruction algorithms should be assessed and optimized by use of objective measures of image quality that quantify the performance of an observer at specific diagnostic tasks. One important source of variability that can significantly limit observer performance is variation in the objects to-be-imaged. This source of variability can be described by stochastic object models (SOMs). A SOM is a generative model that can be employed to establish an ensemble of to-be-imaged objects with prescribed statistical properties. In order to accurately model variations in anatomical structures and object textures, it is desirable to establish SOMs from experimental imaging measurements acquired by use of a well-characterized imaging system. Deep generative neural networks, such as generative adversarial networks (GANs) hold great potential for this task. However, conventional GANs are typically trained by use of reconstructed images that are influenced by the effects of measurement noise and the reconstruction process. To circumvent this, an AmbientGAN has been proposed that augments a GAN with a measurement operator. However, the original AmbientGAN could not immediately benefit from modern training procedures, such as progressive growing, which limited its ability to be applied to realistically sized medical image data. To circumvent this, in this work, a new Progressive Growing AmbientGAN (ProAmGAN) strategy is developed for establishing SOMs from medical imaging measurements. Stylized numerical studies corresponding to common medical imaging modalities are conducted to demonstrate and validate the proposed method for establishing SOMs.
翻訳日:2022-11-26 22:36:57 公開日:2020-05-29