このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20230116となっている論文です。

PDF登録状況(公開日: 20230116)

TitleAuthorsAbstract論文公表日・翻訳日
# テンソル安定正写像のハロと不決定性

Halos and undecidability of tensor stable positive maps ( http://arxiv.org/abs/2110.02113v2 )

ライセンス: Link先を確認
Mirte van der Eyden, Tim Netzer, and Gemma De las Cuevas(参考訳) 写像 $\mathcal{p}$ がテンソル安定正 (tsp) であるとは、$\mathcal{p}^{\otimes n}$ がすべての$n$ に対して正で、本質的 tsp が完全正または完全共正でないときである。 tspマップは必要か? ここでは超複素数上に本質的 tsp 写像が存在することを証明する。 これは、超複素体上に負の部分転位(NPT)を持つ有界絡み状態が存在し、すなわち、量子状態のハロに NPT の有界絡みが存在することを従う。 また、行列乗法テンソル上のテンソル安定陽性は決定不能であり、テンソル安定陽性は決定不能であることを示す。 この予想を証明することは本質的 tsp 写像の存在を意味し、従って npt の束縛された状態の存在を意味する。

A map $\mathcal{P}$ is tensor stable positive (tsp) if $\mathcal{P}^{\otimes n}$ is positive for all $n$, and essential tsp if it is not completely positive or completely co-positive. Are there essential tsp maps? Here we prove that there exist essential tsp maps on the hypercomplex numbers. It follows that there exist bound entangled states with a negative partial transpose (NPT) on the hypercomplex, that is, there exists NPT bound entanglement in the halo of quantum states. We also prove that tensor stable positivity on the matrix multiplication tensor is undecidable, and conjecture that tensor stable positivity is undecidable. Proving this conjecture would imply existence of essential tsp maps, and hence of NPT bound entangled states.
翻訳日:2023-03-12 12:12:01 公開日:2023-01-16
# 非平衡量子臨界の効率的な量子情報プローブ

Efficient quantum information probes of non-equilibrium quantum criticality ( http://arxiv.org/abs/2111.00811v2 )

ライセンス: Link先を確認
Miguel M. Oliveira, Pedro Ribeiro and Stefan Kirchner(参考訳) 量子情報に基づくアプローチ、特に忠実性は、量子物質の相境界に対する柔軟なプローブである。 強い相関の量子材料に対するより広範な忠実性やその他の量子情報測定の応用への大きなハードルは、ほとんどの最先端の数値手法に対する忠実性感受性の到達性である。 これは、一般的な臨界理論が得られず、多くの標準技術が失敗する平衡から特に遠ざかっている。 量子情報に基づく測定の有用性に動機づけられた我々は、広くアクセス可能な1粒子の親和性が、ランダウのパラダイムを超えて位相遷移を識別する多用途機器として機能することを示した。 我々は、以前に同定された非平衡相転移を信号できるだけでなく、平衡から遠く離れた量子物質のモデルで未知の位相を検出することができることを示した。

Quantum information-based approaches, in particular the fidelity, have been flexible probes for phase boundaries of quantum matter. A major hurdle to a more widespread application of fidelity and other quantum information measures to strongly correlated quantum materials is the inaccessibility of the fidelity susceptibility to most state-of-the-art numerical methods. This is particularly apparent away from equilibrium where, at present, no general critical theory is available and many standard techniques fail. Motivated by the usefulness of quantum information based measures we show that a widely accessible quantity, the single-particle affinity, is able to serve as a versatile instrument to identify phase transitions beyond Landau's paradigm. We demonstrate that it not only is able to signal previously identified non-equilibrium phase transitions but also has the potential to detect hitherto unknown phases in models of quantum matter far from equilibrium.
翻訳日:2023-03-09 17:09:00 公開日:2023-01-16
# 量子コンピュータ上の化学シミュレーションのためのグリッドベース手法

Grid-based methods for chemistry simulations on a quantum computer ( http://arxiv.org/abs/2202.05864v4 )

ライセンス: Link先を確認
Hans Hon Sang Chan, Richard Meister, Tyson Jones, David P. Tew, Simon C. Benjamin(参考訳) 最初に量子化されたグリッドベースの化学モデリング法は、量子コンピュータに自然でエレガントなものである。 しかしながら、このアプローチのパワーを探索するために今日の量子プロトタイプを使用することは不可能である。 ここでは、36量子ビットまでの正確な量子コンピュータを用いて、2d原子と3d原子を単一粒子とペア粒子でモデル化する深くてリソースフルガルなアルゴリズムを実行する。 地中準備やエネルギー推定から散乱・イオン化のダイナミクスに至るまで,様々な課題が検討され,我々は理論論文に記載されたプロトコルや我々の新しい技術を含む,分割演算型QFT(SO-QFT)ハミルトンシミュレーションパラダイムの様々な手法を評価する。 ある種の制約や注意事項は特定できるが、一般にグリッドベースの手法は、非常によく機能することが分かっており、最初の量子化パラダイムが初期のフォールトトレラント量子コンピューティング時代から支配的になるという見解と一致している。

First quantized, grid-based methods for chemistry modelling are a natural and elegant fit for quantum computers. However, it is infeasible to use today's quantum prototypes to explore the power of this approach, because it requires a significant number of near-perfect qubits. Here we employ exactly-emulated quantum computers with up to 36 qubits, to execute deep yet resource-frugal algorithms that model 2D and 3D atoms with single and paired particles. A range of tasks is explored, from ground state preparation and energy estimation to the dynamics of scattering and ionisation; we evaluate various methods within the split-operator QFT (SO-QFT) Hamiltonian simulation paradigm, including protocols previously-described in theoretical papers as well as our own novel techniques. While we identify certain restrictions and caveats, generally the grid-based method is found to perform very well; our results are consistent with the view that first quantized paradigms will be dominant from the early fault-tolerant quantum computing era onward.
翻訳日:2023-02-26 02:31:44 公開日:2023-01-16
# コンピュータサイエンスの学生に科学的な発見をより効果的に伝えるよう教える

Teaching Computer Science Students to Communicate Scientific Findings More Effectively ( http://arxiv.org/abs/2301.10025v1 )

ライセンス: Link先を確認
Marvin Wyrich and Stefan Wagner(参考訳) 科学コミュニケーションは、コンピュータサイエンス研究者とターゲットオーディエンスの間の橋渡しを形成する。 研究成果に効果的に注意を向け、それを理解的に伝えることができる研究者は、対象の聴衆が実際に何かを学ぶのを助けるだけでなく、仕事や人の視認性の向上から利益を得る。 しかし、良質な科学コミュニケーションに必要なスキルも教える必要があり、ソフトウェア工学教育の分野では、これまでは無視されてきた。 そこで我々は,コンピュータサイエンスカリキュラムの学童を対象とした科学コミュニケーションセミナーを設計,実施した。 学生は、出版後すぐに、論文に注意を向け、その論文の内容を1つ以上の対象読者に効果的に伝えなければならない研究者の立場を取る。 このシナリオに基づいて、各学生は、すでに公開されたソフトウェア工学研究論文のコミュニケーション戦略を開発し、他のセミナー参加者とアイデアをテストします。 セミナーの設計決定について説明し,参加者に対する回答と経験を組み合わせることで,学習した教訓を得る。 本報告では,他の講師が大学で同様のセミナーを開催する動機付け・実施を意図している。 総じて、大学の講師は次世代のコンピュータサイエンス研究者を、分野の専門家であるだけでなく、研究成果をより効果的に伝えるために準備することができる。

Science communication forms the bridge between computer science researchers and their target audience. Researchers who can effectively draw attention to their research findings and communicate them comprehensibly not only help their target audience to actually learn something, but also benefit themselves from the increased visibility of their work and person. However, the necessary skills for good science communication must also be taught, and this has so far been neglected in the field of software engineering education. We therefore designed and implemented a science communication seminar for bachelor students of computer science curricula. Students take the position of a researcher who, shortly after publication, is faced with having to draw attention to the paper and effectively communicate the contents of the paper to one or more target audiences. Based on this scenario, each student develops a communication strategy for an already published software engineering research paper and tests the resulting ideas with the other seminar participants. We explain our design decisions for the seminar, and combine our experiences with responses to a participant survey into lessons learned. With this experience report, we intend to motivate and enable other lecturers to offer a similar seminar at their university. Collectively, university lecturers can prepare the next generation of computer science researchers to not only be experts in their field, but also to communicate research findings more effectively.
翻訳日:2023-02-19 13:46:41 公開日:2023-01-16
# 暗号通貨関連ソーシャルメディアキャンペーンのデータセット

A Dataset of Coordinated Cryptocurrency-Related Social Media Campaigns ( http://arxiv.org/abs/2301.06601v1 )

ライセンス: Link先を確認
Karolis Zilius, Tasos Spiliotopoulos, Aad van Moorsel(参考訳) cryptoassetsの採用の高まりは、暗号通貨分野の新規で未熟な投資家の多くを惹きつけている。 これらの投資家は、オンラインで受け取った情報、特にソーシャルメディアの影響を受けない。 本稿では,暗号関連バウンティイベントのデータセットとそれに参加するユーザについて述べる。 これらのイベントはソーシャルメディアのキャンペーンをコーディネートし、トークンの価格に影響を与えるために暗号プロジェクトの周りに人工的な「ハイプ」を作成する。 データセットは、2014年5月から2022年12月までのBitcoinTalkオンラインフォーラムのBounties(Altcoins)サブフォーラムから収集された15.8Kのクロスメディアバウンティイベント、185Kの参加者、100万のフォーラムコメント、82万のソーシャルメディアURLで構成されている。 本稿では,データ収集と処理手法について述べるとともに,データセットの基本的な特徴付けを行い,多くの分野にまたがってデータセットが与える潜在的な研究機会について述べる。

The rise in adoption of cryptoassets has brought many new and inexperienced investors in the cryptocurrency space. These investors can be disproportionally influenced by information they receive online, and particularly from social media. This paper presents a dataset of crypto-related bounty events and the users that participate in them. These events coordinate social media campaigns to create artificial "hype" around a crypto project in order to influence the price of its token. The dataset consists of information about 15.8K cross-media bounty events, 185K participants, 10M forum comments and 82M social media URLs collected from the Bounties(Altcoins) subforum of the BitcoinTalk online forum from May 2014 to December 2022. We describe the data collection and the data processing methods employed, we present a basic characterization of the dataset, and we describe potential research opportunities afforded by the dataset across many disciplines.
翻訳日:2023-02-19 13:39:01 公開日:2023-01-16
# 船舶運用のためのディジタルツイン:その実装に関する簡単なレビュー

Digital Twins for Marine Operations: A Brief Review on Their Implementation ( http://arxiv.org/abs/2301.09574v1 )

ライセンス: Link先を確認
Federico Zocco, Hsueh-Cheng Wang and Mien Van(参考訳) 海上運用を支援するデジタル双生児の概念は、予測メンテナンス、リアルタイム監視、制御、プロセス全体の最適化に注目されているが、その実装の明確さは文献に欠けている。 そこで本研究では,それぞれの著者がデジタルツインをどう実装したか,我々の発見を議論し,最終的に今後の研究方向性について考察する。

While the concept of a digital twin to support maritime operations is gaining attention for predictive maintenance, real-time monitoring, control, and overall process optimization, clarity on its implementation is missing in the literature. Therefore, in this review we show how different authors implemented their digital twins, discuss our findings, and finally give insights on future research directions.
翻訳日:2023-01-29 13:50:55 公開日:2023-01-16
# 長期記憶形成のためのエネルギー要件の推定

Estimating the energy requirements for long term memory formation ( http://arxiv.org/abs/2301.09565v1 )

ライセンス: Link先を確認
Maxime Girard, Jiamu Jiang, Mark CW van Rossum(参考訳) 脳は代謝エネルギーを消費して情報を処理し、記憶も保存する。 記憶形成に必要なエネルギーは、例えば、果実のハエの記憶形成では、その後の飢餓(mery and kawecki, 2005)によって寿命が短くなる(mery and kawecki)。 ここでは,所要エネルギーは約10mJ/bitと推定し,これを生物物理学的推定値とコンピュータハードウェアのエネルギー要求値と比較する。 生体記憶ストレージは高価であるが、その背後にある理由は分かっていない。

Brains consume metabolic energy to process information, but also to store memories. The energy required for memory formation can be substantial, for instance in fruit flies memory formation leads to a shorter lifespan upon subsequent starvation (Mery and Kawecki, 2005). Here we estimate that the energy required corresponds to about 10mJ/bit and compare this to biophysical estimates as well as energy requirements in computer hardware. We conclude that biological memory storage is expensive, but the reason behind it is not known.
翻訳日:2023-01-29 13:50:14 公開日:2023-01-16
# BayesSpeech:自動音声認識のためのベイズ変圧器ネットワーク

BayesSpeech: A Bayesian Transformer Network for Automatic Speech Recognition ( http://arxiv.org/abs/2301.11276v1 )

ライセンス: Link先を確認
Will Rieger(参考訳) エンド・ツー・エンドのディープラーニングモデルを用いた最近の開発は、自動音声認識タスクにおけるart recurrent neural networks(rnn)の状態よりもほぼ、あるいはより優れた性能を持つことが示されている。 これらのモデルは軽量であり、従来のRNNベースのアプローチよりもトレーニング時間が少ない傾向にある。 しかし、これらのモデルは重みトレーニングに頻繁にアプローチする。 理論上、ネットワーク重みは潜在的で難解な確率分布から引き出される。 エンドツーエンド自動音声認識のためのBayesSpeechを提案する。 bayesspeechはベイズ変圧器ネットワークであり、これらの難解な後方は変分推論と局所再パラメータ化トリックによって再帰なく学習される。 重みのばらつきの導入によって,LibriSpeech-960のトレーニング時間と最先端性能が向上することを示す。

Recent developments using End-to-End Deep Learning models have been shown to have near or better performance than state of the art Recurrent Neural Networks (RNNs) on Automatic Speech Recognition tasks. These models tend to be lighter weight and require less training time than traditional RNN-based approaches. However, these models take frequentist approach to weight training. In theory, network weights are drawn from a latent, intractable probability distribution. We introduce BayesSpeech for end-to-end Automatic Speech Recognition. BayesSpeech is a Bayesian Transformer Network where these intractable posteriors are learned through variational inference and the local reparameterization trick without recurrence. We show how the introduction of variance in the weights leads to faster training time and near state-of-the-art performance on LibriSpeech-960.
翻訳日:2023-01-29 13:12:55 公開日:2023-01-16
# グラフ上の経路データにおけるメソスケール構造のベイズ検出

Bayesian Detection of Mesoscale Structures in Pathway Data on Graphs ( http://arxiv.org/abs/2301.11120v1 )

ライセンス: Link先を確認
Luka V. Petrovi\'c, Vincenzo Perri(参考訳) メソスケール構造は複雑なシステムの抽象化と解析の不可欠な部分である。 それらはネットワーク内のノードの機能を明らかにし、ネットワークのダイナミクスの理解を促進する。 例えば、社会や引用ネットワークにおけるコミュニティ、企業間相互作用における役割、輸送ネットワークにおける中核周辺構造などを表現することができる。 通常、相互作用の独立性を前提としたメソスケール構造を検出する。 それでも多くの場合、相互作用は特定の順序で起こることによってこの仮定を無効にする。 このようなパターンは経路データに現れ、それらをキャプチャするには、上位ネットワークモデルを使用してインタラクション間の依存関係をモデル化する必要があります。 しかし,高次ネットワークにおけるメソスケール構造の検出はまだ検討中である。 本研究では,グループ内のノードの最適分割とグループ間の高次ネットワークの最適ダイナミクスを同時にモデル化するベイズ的アプローチを導出する。 合成データにおいて,本手法は,近接型コミュニティとノードの役割に基づくグループ化の両方を回復できることを実証する。 合成および実世界のデータでは、ネットワークダイナミクスの解釈可能な抽象化を提供しながら、ベースライン技術と競合できることを示す。

Mesoscale structures are an integral part of the abstraction and analysis of complex systems. They reveal a node's function in the network, and facilitate our understanding of the network dynamics. For example, they can represent communities in social or citation networks, roles in corporate interactions, or core-periphery structures in transportation networks. We usually detect mesoscale structures under the assumption of independence of interactions. Still, in many cases, the interactions invalidate this assumption by occurring in a specific order. Such patterns emerge in pathway data; to capture them, we have to model the dependencies between interactions using higher-order network models. However, the detection of mesoscale structures in higher-order networks is still under-researched. In this work, we derive a Bayesian approach that simultaneously models the optimal partitioning of nodes in groups and the optimal higher-order network dynamics between the groups. In synthetic data we demonstrate that our method can recover both standard proximity-based communities and role-based groupings of nodes. In synthetic and real world data we show that it can compete with baseline techniques, while additionally providing interpretable abstractions of network dynamics.
翻訳日:2023-01-29 13:12:16 公開日:2023-01-16
# トロッターゲートを用いたほぼ理想的サンプリングによる熱期待値の評価

Evaluating thermal expectation values by almost ideal sampling with Trotter gates ( http://arxiv.org/abs/2209.03523v2 )

ライセンス: Link先を確認
Shimpei Goto, Ryui Kaneko, and Ippei Danshita(参考訳) ランダム位相積状態(rppss)にトロッターゲートを適用して初期サンプリング状態を生成する場合,有限温度での量子多体系のシミュレーションにおけるサンプリング効率について検討する。 我々は,システムサイズに比例するトロッターゲートの応用数を制限し,フォールトトレラント量子コンピュータでは容易に作成できることを示した。 トロッターゲートが非可積分なハミルトニアンから作られるとき、サンプリング効率はシステムサイズに応じて増加することが観察される。 この傾向は、初期状態のほぼ理想的なサンプリングが十分大きなシステムで達成できることを意味する。 また,ハールランダムサンプリングを用いた典型的な純量子(tpq)状態法では,サンプリング効率がほぼ同等であることが判明した。 これらの結果から, カオスハミルトニアン力学は, RPPSをTPQ状態の代替として熱予測値を評価することが可能であることが示唆された。

We investigate the sampling efficiency for the simulations of quantum many-body systems at finite temperatures when initial sampling states are generated by applying Trotter gates to random phase product states (RPPSs). We restrict the number of applications of Trotter gates to be proportional to the system size, and thus the preparation would be easily accomplished in fault-tolerant quantum computers. When the Trotter gates are made from a nonintegrable Hamiltonian, we observe that the sampling efficiency increases with system size. This trend means that almost ideal sampling of initial states can be achieved in sufficiently large systems. We also find that the sampling efficiency is almost equal to that obtained by a typical pure quantum (TPQ) state method utilizing Haar random sampling in some cases. These findings suggest that chaotic Hamiltonian dynamics can transform RPPSs into an alternative to TPQ states for evaluating thermal expectation values.
翻訳日:2023-01-27 08:10:11 公開日:2023-01-16
# 光子数測定による2ビームガウス状態の量子相関の定量化

Quantification of Quantum Correlations in Two-Beam Gaussian States Using Photon-Number Measurements ( http://arxiv.org/abs/2209.05422v2 )

ライセンス: Link先を確認
Artur Barasinski and Jan Perina Jr and Antonin Cernoch(参考訳) 量子相関の同定とその後の量子化は、量子デバイスやプロセスを理解し、制御し、エンジニアリングするために重要である。 4次までの実験的な強度モーメントのみを用いて、様々な量子相関形式を定量化する一般的な手法を導出し、実装する。 これらのモーメントは、2ビームガウス場の大域的および限界的不純物の正確な決定を可能にする。 これにより、ステアリングの決定、ネガティビティの強い下界と上界の決定、および状態非分離性の定量化に使用されるクルバック・リーバーの発散が導かれる。 主スクイージング分散は、強度モーメントを用いても決定される。 このアプローチは、光子対からなる強度の増大を伴う実験的な双対ビームと、圧縮された超ガウスビームで実証される。 本手法は, マルチビームガウス場に適用し, 量子相関を特徴付ける。

Identification, and subsequent quantification of quantum correlations, is critical for understanding, controlling, and engineering quantum devices and processes. We derive and implement a general method to quantify various forms of quantum correlations using solely the experimental intensity moments up to the fourth order. This is possible as these moments allow for an exact determination of the global and marginal impurities of two-beam Gaussian fields. This leads to the determination of steering, tight lower and upper bounds for the negativity, and the Kullback-Leibler divergence used as a quantifier of state nonseparability. The principal squeezing variances are determined as well using the intensity moments. The approach is demonstrated on the experimental twin beams with increasing intensity and the squeezed super-Gaussian beams composed of photon pairs. Our method is readily applicable to multibeam Gaussian fields to characterize their quantum correlations.
翻訳日:2023-01-26 22:01:00 公開日:2023-01-16
# 強相互作用量子ポンプの交換ゆらぎ定理

Exchange fluctuation theorems for strongly interacting quantum pumps ( http://arxiv.org/abs/2209.12927v2 )

ライセンス: Link先を確認
Akira Sone and Diogo O. Soares-Pinto and Sebastian Deffner(参考訳) 我々は、量子系のフォン・ノイマンエントロピーの増加に寄与する量子測定のバックアクションの情報的寄与を考慮して、任意の結合強度を持つ多部系に対する一般的な量子交換変動定理を導出した。 熱力学の第二法則は、従来のクラウシウスの不等式よりも厳密である。 導出された境界は条件付き熱状態の量子相互情報であり、初期エネルギー測定で条件付けられた熱状態である。 これらの結果は、任意の結合強度と相互作用する複数のサブシステム間の熱交換における量子相関の役割を解明する。

We derive a general quantum exchange fluctuation theorem for multipartite systems with arbitrary coupling strengths by taking into account the informational contribution of the back-action of the quantum measurements, which contributes to the increase of the von-Neumann entropy of the quantum system. The resulting second law of thermodynamics is tighter than the conventional Clausius inequality. The derived bound is the quantum mutual information of the conditional thermal state, which is a thermal state conditioned on the initial energy measurement. These results elucidate the role of quantum correlations in the heat exchange between multiple subsystems interacting with arbitrary coupling strengths.
翻訳日:2023-01-25 02:55:25 公開日:2023-01-16
# 振動場によって駆動される強結合鎖の文脈における確率的リセット

Stochastic resets in the context of a tight-binding chain driven by an oscillating field ( http://arxiv.org/abs/2209.14117v2 )

ライセンス: Link先を確認
Sushanta Dattagupta, Debraj Das, Shamik Gupta(参考訳) 本研究では,いわゆる駆動的強結合鎖(tbc)の枠組みにおいて,外部環境との相互作用による非ユニタリ進化を模倣した確率的リセットとランダムな時間に分散する量子ユニタリダイナミクスの問題を研究する。 リセットは指数的に分散したランダムな時間で行われると考えられる。 確率的リウヴィル方程式の手法を用いて, 粒子が異なる部位に存在し, 動力学の異なる実現に関して平均化される確率について, 与えられた時点の確率を正確に導出する。 TBC粒子の局在が基盤格子の部位に与える影響を長期にわたって明らかにした。 確率的リセットが存在しない系は粒子の非局在を示すため、粒子は長い時間でも異なる場所に存在する時間に依存しない確率分布を有しておらず、その結果、初期位置における粒子の平均二乗変位は時間的に無限に増大する。 裸のモデルでは、強度とフィールドの周波数の比率を調整して、特別な値、すなわち第一種のゼロ次ベッセル関数の零点の1つに等しい値を持つだけで、局所化を誘導することができる。 そこで本研究では,システムを確率的リセットするより簡単な手法によって局在化が誘導される可能性が示唆された。

In this work, we study in the framework of the so-called driven tight-binding chain (TBC) the issue of quantum unitary dynamics interspersed at random times with stochastic resets mimicking non-unitary evolution due to interactions with the external environment, The driven TBC involves a quantum particle hopping between the nearest-neighbour sites of a one-dimensional lattice and subject to an external forcing field that is periodic in time. We consider the resets to be taking place at exponentially-distributed random times. Using the method of stochastic Liouville equation, we derive exact results for the probability at a given time for the particle to be found on different sites and averaged with respect to different realizations of the dynamics. We establish the remarkable effect of localization of the TBC particle on the sites of the underlying lattice at long times. The system in the absence of stochastic resets exhibits delocalization of the particle, whereby the particle does not have a time-independent probability distribution of being found on different sites even at long times, and, consequently, the mean-squared displacement of the particle about its initial location has an unbounded growth in time. One may induce localization in the bare model only through tuning the ratio of the strength to the frequency of the field to have a special value, namely, equal to one of the zeros of the zeroth order Bessel function of the first kind. We show here that localization may be induced by a far simpler procedure of subjecting the system to stochastic resets.
翻訳日:2023-01-24 19:47:06 公開日:2023-01-16
# 電子-フォノンカップリング系のスペクトル関数に対するchebyshev pseudosite matrix product state approach

Chebyshev pseudosite matrix product state approach for the spectral functions of electron-phonon coupling systems ( http://arxiv.org/abs/2210.09208v2 )

ライセンス: Link先を確認
Pei-Yuan Zhao, Ke Ding, Shuo Yang(参考訳) 電子フォノン(e$-ph)結合系は、しばしば多くのフォノン自由度を持ち、スペクトル関数は行列積状態(MPS)形式を用いて数値的に計算することが困難である。 そこで本研究では,Chebyshev MPSと疑似サイト密度行列再正規化群(DMRG)アルゴリズムを組み合わせた,新しい実用的手法を提案する。 チェビシェフベクトルは、大域的な$U(1)$フェルミオン対称性を持つ擬サイトMPSで表され、それぞれ2つの状態を持つ$N_p$擬サイトへ2$N_p}$ボゾン度を写像する。 このアプローチは、擬似DMRGが効率的に作用する任意の$e$-ph結合ハミルトニアンを扱うことができる。 我々はこの手法を用いて、これまで広く研究されていない強いクーロン反発状態において、ドープされた拡張ハバード・ホルシュタインモデルのスペクトル関数を研究する。 励起スペクトルの重要な特徴は、控えめな計算コストで捉えられる。 その結果, 1次元 (1D) カップレートの角度分解光電子分光観測と一致して, 低フォノン周波数でのホロンの折り畳み枝のスペクトル重量を増大させることができることがわかった。

The electron-phonon ($e$-ph) coupling system often has a large number of phonon degrees of freedom, whose spectral functions are numerically difficult to compute using matrix product state (MPS) formalisms. To solve this problem, we propose a new and practical method that combines the Chebyshev MPS and the pseudosite density matrix renormalization group (DMRG) algorithm. The Chebyshev vector is represented by a pseudosite MPS with global $U(1)$ fermion symmetry, which maps $2^{N_p}$ bosonic degrees of freedom onto $N_p$ pseudosites, each with two states. This approach can handle arbitrary $e$-ph coupling Hamiltonians where pseudosite DMRG performs efficiently. We use this method to study the spectral functions of the doped extended Hubbard-Holstein model in a regime of strong Coulomb repulsion, which has not been studied extensively before. Key features of the excitation spectra are captured at a modest computational cost. Our results show that weak extended $e$-ph couplings can increase the spectral weight of the holon-folding branch at low phonon frequencies, in agreement with angle-resolved photoemission observations on one-dimensional (1D) cuprates.
翻訳日:2023-01-22 06:59:09 公開日:2023-01-16
# マクロなヒルベルト部分空間からの典型的純状態の時間進化

Time Evolution of Typical Pure States from a Macroscopic Hilbert Subspace ( http://arxiv.org/abs/2210.10018v2 )

ライセンス: Link先を確認
Stefan Teufel, Roderich Tumulka, Cornelia Vogel(参考訳) 一元的に進化する純状態 $\psi_t\in \mathcal{H}$ を持つマクロ量子系を考え、異なるマクロ状態が $\mathcal{H}$ の相互直交高次元部分空間 $\mathcal{H}_\nu$ (マクロ空間) に対応することを当然とみなす。 P_\nu$ は $\mathcal{H}_\nu$ への射影を表す。 重畳重み $\|P_\nu\psi_t\|^2$: まず、ほとんどの初期状態に対して、任意の初期状態 $\psi_0$ に対して、任意のマクロ空間 $\mathcal{H}_\mu$ (おそらく熱平衡から遠い) に対して、曲線 $t\mapsto \|P_\nu \psi_t\|^2$ はほぼ同じ(つまり、$[0,T] の時間間隔で$\psi_0$ とほぼ独立である)。 第二に、ほとんどの$\psi_0$ from $\mathcal{H}_\mu$ and most $t\in[0,\infty)$, $\|P_\nu \psi_t\|^2$ は $t$ と $\psi_0$ から独立な$M_{\mu\nu}$ に近い。 1つは、バルトッシュ、ゲマー、ライマンによって観測された動的典型性の現象の例であり、もう1つはフォン・ノイマンによって導入された概念を単純化し、拡張し、拡張するものである。

We consider a macroscopic quantum system with unitarily evolving pure state $\psi_t\in \mathcal{H}$ and take it for granted that different macro states correspond to mutually orthogonal, high-dimensional subspaces $\mathcal{H}_\nu$ (macro spaces) of $\mathcal{H}$. Let $P_\nu$ denote the projection to $\mathcal{H}_\nu$. We prove two facts about the evolution of the superposition weights $\|P_\nu\psi_t\|^2$: First, given any $T>0$, for most initial states $\psi_0$ from any particular macro space $\mathcal{H}_\mu$ (possibly far from thermal equilibrium), the curve $t\mapsto \|P_\nu \psi_t\|^2$ is approximately the same (i.e., nearly independent of $\psi_0$) on the time interval $[0,T]$. And second, for most $\psi_0$ from $\mathcal{H}_\mu$ and most $t\in[0,\infty)$, $\|P_\nu \psi_t\|^2$ is close to a value $M_{\mu\nu}$ that is independent of both $t$ and $\psi_0$. The first is an instance of the phenomenon of dynamical typicality observed by Bartsch, Gemmer, and Reimann, and the second modifies, extends, and in a way simplifies the concept, introduced by von Neumann, now known as normal typicality.
翻訳日:2023-01-22 04:19:48 公開日:2023-01-16
# 大規模ネットワークにおける最小レイテンシにおける量子通信の効果

Effects of Quantum Communication in Large-Scale Networks at Minimum Latency ( http://arxiv.org/abs/2210.13267v3 )

ライセンス: Link先を確認
Simon Sekav\v{c}nik, Janis N\"otzel(参考訳) 量子通信技術はいくつかの高度な戦略を提供する。 しかし、その実践的利用は、しばしばまだよく理解されていない。 そこで本研究では,各ロボットがそれに関連する演算ユニットを持つ未来型大規模ロボットファクトリーの概念を分析する。 演算ユニットは、リアルタイムに実行しなければならない大きな計算タスクをロボットに支援する。 各ロボットは、計算ユニットの近傍でランダムに動き、さらに、ロボットとユニットの両方が位置を変更することができる。 遅延を最小限にするため、接続を光無線と仮定する。 移動性のため、周波数帯域の恒久的な最適割り当ては通信遅延の増加と仮定され、従って除外される。 このような仮定では、量子通信技術を用いて構築されたアーキテクチャと、従来の設計手法に基づいて構築されたアーキテクチャの異なるタイプのキャパシティスケーリングを比較する。

Quantum communication technology offers several advanced strategies. However, their practical use is often times not yet well understood. In this work we therefore analyze the concept of a futuristic large-scale robotic factory, where each robot has a computing unit associated to it. The computing unit assists the robot with large computational tasks that have to be performed in real-time. Each robot moves randomly in a vicinity of its computing unit, and in addition both the robot and the unit can change location. To minimize latency, the connection is assumed as optical wireless. Due to the mobility, a permanent optimal assignment of frequency bands is assumed to increase communication latency and is therefore ruled out. Under such assumptions, we compare the different capacity scaling of different types of such architectures, where the one is built utilizing quantum communication techniques, and the other based on conventional design methods.
翻訳日:2023-01-21 18:54:16 公開日:2023-01-16
# 完全エルマンニューラルネット:肺動脈圧の分類のための改良されたハリスホークスアルゴリズムにより最適化された新しいディープリカレントニューラルネットワーク

Fully Elman Neural Network: A Novel Deep Recurrent Neural Network Optimized by an Improved Harris Hawks Algorithm for Classification of Pulmonary Arterial Wedge Pressure ( http://arxiv.org/abs/2301.07710v1 )

ライセンス: Link先を確認
Masoud Fetanat, Michael Stevens, Pankaj Jain, Christopher Hayward, Erik Meijering and Nigel H. Lovell(参考訳) 心臓不全(Heart failure、HF)は、米国で650万人が苦しんでおり、世界中で2300万人以上の心臓血管疾患の1つである。 左室補助装置(LVAD)をHF患者に移植・回復・治療の橋渡しとして移植し,正常および異常肺動脈水圧(PAWP)の測定により制御することにより,HF患者の機械的循環支援を実現することができる。 PAWPを測定する商用の長期植込み型圧力センサは存在しないが、異常および正常なPAWPのリアルタイム非侵襲的推定が不可欠である。 本研究では,まずHHO+と呼ばれる改良されたHarris Hawksオプティマイザアルゴリズムを24の単調およびマルチモーダルベンチマーク関数上で提案・テストする。 第二に、分類性能を改善するために、新しい完全エルマンニューラルネットワーク(FENN)を提案する。 最後に,多層パーセプトロン(CNN-MLP),エルマンニューラルネットワーク(CNN-ENN),エルマンニューラルネットワーク(CNN-FENN),HHO+アルゴリズム(CNN-FENN-HHO+)で最適化された完全エルマンニューラルネットワーク(CNN-FENN-HHO+)の4つの新しい18層ディープラーニング手法を開発した。 推定ポンプ流量は商用HVADコントローラに埋め込まれた非侵襲的手法によって導出された。 提案手法は5倍のクロスバリデーションを用いた不均衡臨床データセット上で評価される。 提案したCNN-FENN-HHO+法は,提案したCNN-MLP,CNN-ENN,CNN-FENN法よりも優れ、5倍のクロスバリデーションにおける分類性能の指標が改善された。 提案手法は,HF患者に対する肺混雑や心室吸引などの危険事象の可能性を低減し,病院,臨床医,心臓科医に異常な症例を通知する。

Heart failure (HF) is one of the most prevalent life-threatening cardiovascular diseases in which 6.5 million people are suffering in the USA and more than 23 million worldwide. Mechanical circulatory support of HF patients can be achieved by implanting a left ventricular assist device (LVAD) into HF patients as a bridge to transplant, recovery or destination therapy and can be controlled by measurement of normal and abnormal pulmonary arterial wedge pressure (PAWP). While there are no commercial long-term implantable pressure sensors to measure PAWP, real-time non-invasive estimation of abnormal and normal PAWP becomes vital. In this work, first an improved Harris Hawks optimizer algorithm called HHO+ is presented and tested on 24 unimodal and multimodal benchmark functions. Second, a novel fully Elman neural network (FENN) is proposed to improve the classification performance. Finally, four novel 18-layer deep learning methods of convolutional neural networks (CNNs) with multi-layer perceptron (CNN-MLP), CNN with Elman neural networks (CNN-ENN), CNN with fully Elman neural networks (CNN-FENN), and CNN with fully Elman neural networks optimized by HHO+ algorithm (CNN-FENN-HHO+) for classification of abnormal and normal PAWP using estimated HVAD pump flow were developed and compared. The estimated pump flow was derived by a non-invasive method embedded into the commercial HVAD controller. The proposed methods are evaluated on an imbalanced clinical dataset using 5-fold cross-validation. The proposed CNN-FENN-HHO+ method outperforms the proposed CNN-MLP, CNN-ENN and CNN-FENN methods and improved the classification performance metrics across 5-fold cross-validation. The proposed methods can reduce the likelihood of hazardous events like pulmonary congestion and ventricular suction for HF patients and notify identified abnormal cases to the hospital, clinician and cardiologist.
翻訳日:2023-01-20 16:19:21 公開日:2023-01-16
# フェデレーションレコメンデーションにおける二重パーソナライズ

Dual Personalization on Federated Recommendation ( http://arxiv.org/abs/2301.08143v1 )

ライセンス: Link先を確認
Chunxu Zhang, Guodong Long, Tianyi Zhou, Peng Yan, Zijian Zhang, Chengqi Zhang, Bo Yang(参考訳) フェデレーションレコメンデーション(federated recommendation)は、プライバシー保護レコメンデーションサービスをフェデレーション設定で提供する、新しいインターネットサービスアーキテクチャである。 既存のソリューションは、分散レコメンデーションアルゴリズムとプライバシ保護メカニズムを組み合わせるために使用される。 したがって、本質的にはサーバでヘビーウェイトモデルの形をとり、デバイス上のインテリジェントモデルのエンドユーザへのデプロイを妨げる。 本稿では、サーバ上の重み付けモデルではなく、スマートデバイスにデプロイされる多くのユーザ固有の軽量モデルを学ぶために、Personalized Federated Recommendation(PFedRec)フレームワークを提案する。 さらに,ユーザとアイテムの両方の詳細なパーソナライズを効果的に学習するための,新たな二重パーソナライズ機構を提案する。 全体的な学習プロセスは統合された最適化フレームワークに定式化される。 具体的には、フェデレーションシステムでユーザ間でまったく同じアイテム埋め込みを共有する従来の方法とは異なり、デュアルパーソナライズにより、各ユーザがアイテム埋め込みを穏やかに微調整することで、アイテム表現に対するユーザ固有のビューを生成し、既存のフェデレーション推奨メソッドに統合して、すぐに改善を得られるようになる。 複数のベンチマークデータセットの実験では、PFedRecと二重パーソナライゼーション機構の有効性が実証されている。 さらに,項目埋め込みにおけるパーソナライズ手法の可視化と詳細な分析を行い,フェデレーション設定におけるrecsysの設計に関する新たな知見を得た。

Federated recommendation is a new Internet service architecture that aims to provide privacy-preserving recommendation services in federated settings. Existing solutions are used to combine distributed recommendation algorithms and privacy-preserving mechanisms. Thus it inherently takes the form of heavyweight models at the server and hinders the deployment of on-device intelligent models to end-users. This paper proposes a novel Personalized Federated Recommendation (PFedRec) framework to learn many user-specific lightweight models to be deployed on smart devices rather than a heavyweight model on a server. Moreover, we propose a new dual personalization mechanism to effectively learn fine-grained personalization on both users and items. The overall learning process is formulated into a unified federated optimization framework. Specifically, unlike previous methods that share exactly the same item embeddings across users in a federated system, dual personalization allows mild finetuning of item embeddings for each user to generate user-specific views for item representations which can be integrated into existing federated recommendation methods to gain improvements immediately. Experiments on multiple benchmark datasets have demonstrated the effectiveness of PFedRec and the dual personalization mechanism. Moreover, we provide visualizations and in-depth analysis of the personalization techniques in item embedding, which shed novel insights on the design of RecSys in federated settings.
翻訳日:2023-01-20 14:51:20 公開日:2023-01-16
# 解説:もし誰も見なかったら、月はそこにいるのか−ベルの不等式と物理的な現実

Commentary: Is the moon there if nobody looks -- Bell inequalities and physical reality ( http://arxiv.org/abs/2211.02481v2 )

ライセンス: Link先を確認
Richard D. Gill and Justo P. Lambare(参考訳) Marian Kupczynski(MK)は『Frontiers in Physics』に掲載された論争を巻き起こす論文(2020年)の著者である。 この作品は、実際には偽であるMKの数学的主張を中心に構築されており、MKの主張に関する論理的推論も誤りである。 同じ主張は、他の雑誌に発表されたいくつかの最近の論文で、彼によってなされた。 クレーム結果が偽であることを示す証拠が、現在の"Comment"の主な内容である。 これは純粋に、多くのMK論文における数学的主張に対する数学的反例である。

Marian Kupczynski(MK)is the author of a controversial paper published (2020) in the journal Frontiers in Physics. The work is built around a mathematical claim by MK which is actually false, and MK's logical reasoning around his claim is also incorrect. The same claim was made by him in several other recent papers published in other journals. A proof that the claimed result is false is the main content of our present "Comment". It is purely a mathematical counter-example to a mathematical claim in a number of MK's papers.
翻訳日:2023-01-20 09:07:22 公開日:2023-01-16
# 近似可換スペクトル三重項およびスピノル束上の量子拡散

Quantum diffusion on almost commutative spectral triples and spinor bundles ( http://arxiv.org/abs/2211.03319v2 )

ライセンス: Link先を確認
Sita Gakkhar(参考訳) キャシック [10] のクリフォード加群としてのほぼ可換なスペクトル三重項のキャラクタリゼーションがディラックバンドルの内定型代数にプッシュできるという観察に基づいて、摂動によりスペクトル三重項のディラック作用素に関連する幾何学的ディラック作用素は、接続ラプラシアンとディラックとコスタントの立方体ディラックララシアンによって生成される熱半群の完全正則性の疑問はスピン幾何学とC *-ディリクレ形式を用いてアプローチされる。 スピノルバンドルの内方形代数上の幾何学的熱半群は量子力学半群であることが示され、還元等質空間上のスピノルバンドル上の熱半群に付随する共変量子確率フローの存在は、シンハとゴスワミの構成を用いて確立される[34]。

Based on the observation that Cacic [10]'s characterization of almost commutative spectral triples as Clifford module bundles can be pushed to endomorphim algebras of Dirac bundles, with the geometric Dirac operator related to the Dirac operator of the spectral triple by a perturbation, the question of complete positivity of the heat semigroups generated by connection laplacian and Dirac and Kostant's cubic Dirac laplacians is approached using spin geometry and C *-Dirichlet forms. The geometric heat semigroups for on endomorphosm algebras of spinor bundles are shown to be quantum dynamical semigroups and the existence of covariant quantum stochastic flows associated to the heat semigroups on spinor bundles over reductive homogeneous spaces is established using the construction of Sinha and Goswami [34].
翻訳日:2023-01-20 02:09:28 公開日:2023-01-16
# 機械学習システムの分類性能解析のための大きな偏差

Large Deviations for Classification Performance Analysis of Machine Learning Systems ( http://arxiv.org/abs/2301.07104v1 )

ライセンス: Link先を確認
Paolo Braca, Leonardo M. Millefiori, Augusto Aubry, Antonio De Maio, Peter Willett(参考訳) エラー確率の観点から機械学習バイナリ分類手法の性能について検討する。 データ駆動決定関数(Data-Driven Decision Function, D3F)は、データ駆動決定関数(Data-Driven Decision Function, D3F)をベースとする統計テストである。 大規模な偏差理論に基づき、適切な条件下で分類誤差確率は指数関数的に消えることを示し、$\sim \exp\left(-n\,I + o(n) \right)$、$I$は誤差率、$n$はテストで利用できる観測数である。 また、誤差確率曲線に対する2つの異なる近似を提案し、一つは洗練された漸近式(しばしば完全漸近式と呼ばれる)に基づくもので、もう一つは中心極限定理に基づくものである。 理論的な結果は、MNISTデータセットを使って最終的に検証される。

We study the performance of machine learning binary classification techniques in terms of error probabilities. The statistical test is based on the Data-Driven Decision Function (D3F), learned in the training phase, i.e., what is thresholded before the final binary decision is made. Based on large deviations theory, we show that under appropriate conditions the classification error probabilities vanish exponentially, as $\sim \exp\left(-n\,I + o(n) \right)$, where $I$ is the error rate and $n$ is the number of observations available for testing. We also propose two different approximations for the error probability curves, one based on a refined asymptotic formula (often referred to as exact asymptotics), and another one based on the central limit theorem. The theoretical findings are finally tested using the popular MNIST dataset.
翻訳日:2023-01-19 17:39:20 公開日:2023-01-16
# 2段階GANによる連続軌道生成

Continuous Trajectory Generation Based on Two-Stage GAN ( http://arxiv.org/abs/2301.07103v1 )

ライセンス: Link先を確認
Wenjun Jiang, Wayne Xin Zhao, Jingyuan Wang, Jiawei Jiang(参考訳) 人間の移動をシミュレートし、大規模な軌道を生成することは、都市計画、拡散分析、地理的プライバシ保護など、多くの現実世界のアプリケーションで非常に有用である。 過去の多くの研究で軌道生成の問題が研究されているが、生成された軌道の連続性は無視されており、実際の都市シミュレーションシナリオでは利用できない。 そこで本研究では,道路網上での連続的軌跡,すなわちTS-TrajGenをモデルフリー学習パラダイムに効率よく組み込むための,新たな2段階生成対向フレームワークを提案する。 具体的には,a*アルゴリズムのヒューマンモビリティ仮説に基づいて生成器を構築し,人間のモビリティ挙動を学習する。 判別器については, 逐次報酬と移動ヨー報酬を組み合わせることで, 発電機の有効性を高める。 最後に,既存の確率的生成プロセスの弱点を克服する新しい2段階生成プロセスを提案する。 2つの実世界のデータセットに関する広範囲な実験と、2つのケーススタディは、我々のフレームワークが最先端のメソッドよりも大きな改善をもたらすことを示している。

Simulating the human mobility and generating large-scale trajectories are of great use in many real-world applications, such as urban planning, epidemic spreading analysis, and geographic privacy protect. Although many previous works have studied the problem of trajectory generation, the continuity of the generated trajectories has been neglected, which makes these methods useless for practical urban simulation scenarios. To solve this problem, we propose a novel two-stage generative adversarial framework to generate the continuous trajectory on the road network, namely TS-TrajGen, which efficiently integrates prior domain knowledge of human mobility with model-free learning paradigm. Specifically, we build the generator under the human mobility hypothesis of the A* algorithm to learn the human mobility behavior. For the discriminator, we combine the sequential reward with the mobility yaw reward to enhance the effectiveness of the generator. Finally, we propose a novel two-stage generation process to overcome the weak point of the existing stochastic generation process. Extensive experiments on two real-world datasets and two case studies demonstrate that our framework yields significant improvements over the state-of-the-art methods.
翻訳日:2023-01-19 17:39:03 公開日:2023-01-16
# ディープラーニング問題におけるフォワードモデルとしてのディープラーニングプロキシの利用について

On Using Deep Learning Proxies as Forward Models in Deep Learning Problems ( http://arxiv.org/abs/2301.07102v1 )

ライセンス: Link先を確認
Fatima Albreiki, Nidhal Belayouni and Deepak K. Gupta(参考訳) 物理学に基づく最適化問題は一般に非常に時間がかかり、特にフォワードモデルに関連する計算の複雑さのためである。 近年の研究では、物理モデルがニューラルネットワークで近似できることが示されている。 しかし,この学習には必ずある程度の誤りがあり,本論文ではこの点について検討する。 本稿では,ニューラルネットワークの近似(NN-プロキシ)を最適化フレームワークに挿入すると,誤った結果が得られるという,一般的な数学ベンチマークの実験を通じて実証する。 特に粒子群最適化と遺伝的アルゴリズム手法の挙動を解析し,nn-プロキシと組み合わせた場合の安定性を解析した。 近似モデルの正しさは,パラメータ空間におけるサンプリングの程度に依存し,数値実験により,この景観をニューラルネットワークで構築するには注意が必要であることを示した。 さらに, NNプロキシは高次元関数の訓練が困難であり, 4次元および10次元問題に対する知見を提示する。 このような場合の誤差は高く,NN-プロキシの構築に使用するサンプリング方式の選択に敏感であることを示す。 コードはhttps://github.com/fa-ti-ma/nn-proxy-in-optimizationで入手できる。

Physics-based optimization problems are generally very time-consuming, especially due to the computational complexity associated with the forward model. Recent works have demonstrated that physics-modelling can be approximated with neural networks. However, there is always a certain degree of error associated with this learning, and we study this aspect in this paper. We demonstrate through experiments on popular mathematical benchmarks, that neural network approximations (NN-proxies) of such functions when plugged into the optimization framework, can lead to erroneous results. In particular, we study the behavior of particle swarm optimization and genetic algorithm methods and analyze their stability when coupled with NN-proxies. The correctness of the approximate model depends on the extent of sampling conducted in the parameter space, and through numerical experiments, we demonstrate that caution needs to be taken when constructing this landscape with neural networks. Further, the NN-proxies are hard to train for higher dimensional functions, and we present our insights for 4D and 10D problems. The error is higher for such cases, and we demonstrate that it is sensitive to the choice of the sampling scheme used to build the NN-proxy. The code is available at https://github.com/Fa-ti-ma/NN-proxy-in-optimization.
翻訳日:2023-01-19 17:38:36 公開日:2023-01-16
# 文書分類のためのマルチモーダルサイドチューニング

Multimodal Side-Tuning for Document Classification ( http://arxiv.org/abs/2301.07502v1 )

ライセンス: Link先を確認
Stefano Pio Zingaro and Giuseppe Lisanti and Maurizio Gabbrielli(参考訳) 本稿では,マルチモーダル文書分類のためのサイドチューニングフレームワークを提案する。 サイドチューニングは、以前のアプローチに関連するいくつかの問題を解決するために最近導入されたネットワーク適応のための方法論である。 この技術により、モデル剛性を克服し、微調整により伝達学習を破滅的に忘れることができる。 提案手法では,サイドチューニングフレームワークを活用した既製のディープラーニングアーキテクチャを用いて,ベースモデルと2つのサイドネットワークを組み合わせる。 文書分類におけるテキストや画像など,異なるデータソースを考慮した場合も,サイドチューニングをうまく活用できることを示す。 実験の結果, この手法は, 文書分類精度の限界をさらに高めていることがわかった。

In this paper, we propose to exploit the side-tuning framework for multimodal document classification. Side-tuning is a methodology for network adaptation recently introduced to solve some of the problems related to previous approaches. Thanks to this technique it is actually possible to overcome model rigidity and catastrophic forgetting of transfer learning by fine-tuning. The proposed solution uses off-the-shelf deep learning architectures leveraging the side-tuning framework to combine a base model with a tandem of two side networks. We show that side-tuning can be successfully employed also when different data sources are considered, e.g. text and images in document classification. The experimental results show that this approach pushes further the limit for document classification accuracy with respect to the state of the art.
翻訳日:2023-01-19 16:00:38 公開日:2023-01-16
# Byzantine-Resilient Stochastic Gradient Descent のためのロバスト分類フレームワーク

A Robust Classification Framework for Byzantine-Resilient Stochastic Gradient Descent ( http://arxiv.org/abs/2301.07498v1 )

ライセンス: Link先を確認
Shashank Reddy Chirra, Kalyan Varma Nadimpalli, Shrisha Rao(参考訳) 本稿では,分散確率勾配勾配におけるビザンチン耐故障性に対するロバスト勾配分類フレームワーク(RGCF)を提案する。 このフレームワークはパターン認識フィルタで構成されており、向きだけで個々の勾配をビザンチンとして分類できるように訓練しています。 このフィルタは、凸に対して任意の数のビザンチン労働者と非凸最適化設定にロバストであり、最大50%の労働者がビザンチンである場合にのみビザンチン断層にロバストな以前の作業において大幅に改善される。 このソリューションでは、ビザンツの労働者の数を見積もる必要はなく、その実行時間は労働者の数に依存しず、パフォーマンスを損なうことなく、多数の労働者を抱えるトレーニングインスタンスまでスケールアップすることができる。 我々は、ビザンティン労働者の存在下で、MNISTデータセット上で畳み込みニューラルネットワークをトレーニングすることで、ソリューションを検証する。

This paper proposes a Robust Gradient Classification Framework (RGCF) for Byzantine fault tolerance in distributed stochastic gradient descent. The framework consists of a pattern recognition filter which we train to be able to classify individual gradients as Byzantine by using their direction alone. This filter is robust to an arbitrary number of Byzantine workers for convex as well as non-convex optimisation settings, which is a significant improvement on the prior work that is robust to Byzantine faults only when up to 50% of the workers are Byzantine. This solution does not require an estimate of the number of Byzantine workers; its running time is not dependent on the number of workers and can scale up to training instances with a large number of workers without a loss in performance. We validate our solution by training convolutional neural networks on the MNIST dataset in the presence of Byzantine workers.
翻訳日:2023-01-19 16:00:26 公開日:2023-01-16
# 統合失調症診断のための機械学習技術 : 包括的レビューと今後の研究方向

Machine learning techniques for the Schizophrenia diagnosis: A comprehensive review and future research directions ( http://arxiv.org/abs/2301.07496v1 )

ライセンス: Link先を確認
Shradha Verma, Tripti Goel, M Tanveer, Weiping Ding, Rahul Sharma and R Murugan(参考訳) 統合失調症(英語: Schizophrenia、SCZ)とは、幻覚、妄想、フラットトーク、非組織的思考など、様々な症状を経験する脳疾患である。 長期的には、これは深刻な影響をもたらし、寿命を10年以上短縮する可能性がある。 したがって、sczの早期かつ正確な診断が一般的であり、構造的磁気共鳴画像(smri)、機能的mri(fmri)、拡散テンソル画像(dti)、脳波(eeg)などのモダリティが患者の脳の異常を目撃するのに役立つ。 さらに、SCZの正確な診断のために、研究者は過去10年間、機械学習(ML)アルゴリズムを使用して、MRIとfMRI画像を用いて健康脳とSCZ脳の脳パターンを識別してきた。 本稿では,SCZ研究者をMLで知っており,最近のSCZ研究への応用について論じる。 本稿では,ML分類器,人工ニューラルネットワーク(ANN),深層学習(DL)モデル,方法論の基礎,過去の研究への応用など,最先端技術について概説する。 本研究の動機は、SCZの正確な診断のための新しいモデルの開発につながる研究ギャップを見つけることにある。 論文は、新たな研究の方向性に直接寄与する研究の成果と、今後の展望で締めくくられる。

Schizophrenia (SCZ) is a brain disorder where different people experience different symptoms, such as hallucination, delusion, flat-talk, disorganized thinking, etc. In the long term, this can cause severe effects and diminish life expectancy by more than ten years. Therefore, early and accurate diagnosis of SCZ is prevalent, and modalities like structural magnetic resonance imaging (sMRI), functional MRI (fMRI), diffusion tensor imaging (DTI), and electroencephalogram (EEG) assist in witnessing the brain abnormalities of the patients. Moreover, for accurate diagnosis of SCZ, researchers have used machine learning (ML) algorithms for the past decade to distinguish the brain patterns of healthy and SCZ brains using MRI and fMRI images. This paper seeks to acquaint SCZ researchers with ML and to discuss its recent applications to the field of SCZ study. This paper comprehensively reviews state-of-the-art techniques such as ML classifiers, artificial neural network (ANN), deep learning (DL) models, methodological fundamentals, and applications with previous studies. The motivation of this paper is to benefit from finding the research gaps that may lead to the development of a new model for accurate SCZ diagnosis. The paper concludes with the research finding, followed by the future scope that directly contributes to new research directions.
翻訳日:2023-01-19 16:00:08 公開日:2023-01-16
# エベレット解釈と存命的ソリプシズム

Everett interpretation and Convivial Solipsism ( http://arxiv.org/abs/2301.07532v1 )

ライセンス: Link先を確認
Herv\'e Zwirn(参考訳) 標準現実主義的枠組み(または崩壊がシステムの物理的変化を暗示する枠組み)を採用すると量子パラドックスがどのように消滅するかを、測定が物理的状態の変化と(直接的または間接的に)関連しているという考えを捨てた時に示します。 エベレットの解釈と同様に、生存ソリプシズムにおいては、波動関数の崩壊は存在しない。 しかしエベレットの解釈とは対照的に、一つの世界しか存在しない。 これにより、非ローカル性を排除し、wigner friend問題とそのより最近のバージョンに対するソリューションを提供することもできる。

I show how the quantum paradoxes occurring when we adopt a standard realist framework (or a framework in which the collapse implies a physical change of the state of the system) vanish if we abandon the idea that a measurement is related (directly or indirectly) to a physical change of state. In Convivial Solipsism, similarly to Everett interpretation, there is no collapse of the wave function. But contrary to Everett interpretation, there is only one world. This allows also to get rid of any non-locality and to provide a solution to the Wigner friend problem and its more recent versions.
翻訳日:2023-01-19 15:52:09 公開日:2023-01-16
# スマートグリッドにおける最適化アルゴリズム: 体系的文献レビュー

Optimization Algorithms in Smart Grids: A Systematic Literature Review ( http://arxiv.org/abs/2301.07512v1 )

ライセンス: Link先を確認
Sidra Aslam, Ala Altaweel, Ali Bou Nassif(参考訳) 電気スマートグリッド(英: electric smart grids)は、電力プラントからユーザに電力を供給するユニットであり、コストの低減、電力障害/損失の低減、エネルギー管理の最大化を図っている。 スマートグリッド(SG)は、双方向通信、安定性、電源障害の検出、監視目的のアプライアンスとの接続性など、異例のメリットがあるため、よく知られたデバイスである。 SGは、モデリング、監視、最適化、人工知能など、データとセキュリティの管理に使用されるさまざまな現代的なアプリケーションの成果である。 したがって、研究分野としてのSGの重要性は年々増している。 本稿では, 国内産業分野におけるスマートグリッドの新たな特徴と応用について述べる。 具体的には, 遺伝的アルゴリズム, 粒子群最適化, およびGrey Wolf Optimizationに着目し, SGsにおけるエネルギー管理の最大化とコスト最小化の取り組みについて検討した。 そこで本研究では,2011年から2022年までの145件の研究成果を整理した。 本研究の目的は、過去10年間に提案されたSGの特徴と応用を解明し、世界の異なる地域におけるSGの普及動向を明らかにすることである。 我々の発見によると、SGsにおけるエネルギー管理とコスト効率の新たなソリューションを推し進めるために研究者が使用している最も一般的な最適化アルゴリズムは、Particle Swarm Optimizationである。 また、エネルギーとコスト効率のソリューションで用いられる目的関数とパラメータの簡単な概要と、今後の研究における様々なオープンな研究課題について議論する。

Electrical smart grids are units that supply electricity from power plants to the users to yield reduced costs, power failures/loss, and maximized energy management. Smart grids (SGs) are well-known devices due to their exceptional benefits such as bi-directional communication, stability, detection of power failures, and inter-connectivity with appliances for monitoring purposes. SGs are the outcome of different modern applications that are used for managing data and security, i.e., modeling, monitoring, optimization, and/or Artificial Intelligence. Hence, the importance of SGs as a research field is increasing with every passing year. This paper focuses on novel features and applications of smart grids in domestic and industrial sectors. Specifically, we focused on Genetic algorithm, Particle Swarm Optimization, and Grey Wolf Optimization to study the efforts made up till date for maximized energy management and cost minimization in SGs. Therefore, we collected 145 research works (2011 to 2022) in this systematic literature review. This research work aims to figure out different features and applications of SGs proposed in the last decade and investigate the trends in popularity of SGs for different regions of world. Our finding is that the most popular optimization algorithm being used by researchers to bring forward new solutions for energy management and cost effectiveness in SGs is Particle Swarm Optimization. We also provide a brief overview of objective functions and parameters used in the solutions for energy and cost effectiveness as well as discuss different open research challenges for future research works.
翻訳日:2023-01-19 15:50:17 公開日:2023-01-16
# multicalib4deb:動的エネルギー予算パラメータキャリブレーションにおけるマルチモーダル最適化を利用するツールボックス

MultiCalib4DEB: A toolbox exploiting multimodal optimisation in Dynamic Energy Budget parameters calibration ( http://arxiv.org/abs/2301.07548v1 )

ライセンス: Link先を確認
Juan Francisco Robles and Manuel Chica and Ram\'on Filgueira and Antonio Ag\"uera and Sergio Damas(参考訳) 校正は計算モデルの検証にとって重要なステップであり、達成すべき課題である。 ダイナミック・エナジー・バッジ(DEB)理論は、発行された論文の数が指数関数的に増加しており、その大部分はDEBtoolツールボックスによって実現されている。 マルチモーダル進化最適化は、特に等しく最適で多様な解のプロビジョニングに関係した、新たな能力を提供する可能性がある。 本稿では,MATLABツールボックスであるMultiCalib4DEBを既存のDBtoolツールボックスに直接統合し,マルチモーダル進化最適化アルゴリズムを用いて,DBモデルに対するグローバルかつローカルな最適かつ多様なキャリブレーション解を求める。 MultiCalib4DEBはDBtoolツールボックスに強力なキャリブレーション機構、統計解析、可視化手法を追加し、DBtoolのキャリブレーションモジュールを強化し、DBtoolユーザがキャリブレーション結果のパフォーマンスを評価するために、幅広い出力、異なるキャリブレーション代替手段、および特定のツールを提供する。

Calibration is a crucial step for the validation of computational models and a challenging task to accomplish. Dynamic Energy Budget (DEB) theory has experienced an exponential rise in the number of published papers, which in large part has been made possible by the DEBtool toolbox. Multimodal evolutionary optimisation could provide DEBtool with new capabilities, particularly relevant on the provisioning of equally optimal and diverse solutions. In this paper we present MultiCalib4DEB, a MATLAB toolbox directly integrated into the existing DEBtool toolbox, which uses multimodal evolutionary optimisation algorithms to find multiple global and local optimal and diverse calibration solutions for DEB models. MultiCalib4DEB adds powerful calibration mechanisms, statistical analysis, and visualisation methods to the DEBtool toolbox and provides a wide range of outputs, different calibration alternatives, and specific tools to strengthen the DEBtool calibration module and to aid DEBtool users to evaluate the performance of the calibration results.
翻訳日:2023-01-19 15:41:24 公開日:2023-01-16
# EHRSQL: 電子健康記録のための実践的なテキストからSQLのベンチマーク

EHRSQL: A Practical Text-to-SQL Benchmark for Electronic Health Records ( http://arxiv.org/abs/2301.07695v1 )

ライセンス: Link先を確認
Gyubok Lee, Hyeonji Hwang, Seongsu Bae, Yeonsu Kwon, Woncheol Shin, Seongjun Yang, Minjoon Seo, Jong-Yeup Kim, Edward Choi(参考訳) 電子健康記録(EHR)のための新しいテキスト間SQLデータセットを提案する。 発話は医師、看護師、保険審査、健康記録チームを含む222人の病院スタッフから集められた。 構造化EMHデータに基づくQAデータセットを構築するため,大学病院で調査を行い,回答をテンプレート化し,種問合せを作成した。 そして、それらをMIMIC-IIIとeICUという2つのオープンソースのEHRデータベースに手動でリンクし、様々な時間表現と、すべてのアンケートから収集されたデータセットに持たない質問を格納した。 私たちのデータセットには、ユニークな課題があります。 1) 病院における幅広いニーズを反映したsqlクエリを生成し、簡単な検索や生存率の計算などの複雑な操作を含む。 2)医療における時間感性質問に対する各種時間表現の理解と対応 3) 予測信頼度に基づいて,ある質問が回答可能か否かを判別する。 当社のデータセットであるEHRSQLは、構造化されたEHRデータ上でのQAモデルの開発と評価のための実用的なベンチマークとして機能し、テキストからSQLまでの研究と、その医療における実際の展開の間のギャップを埋めるための一歩を踏み出すことができると考えています。 EHRSQLはhttps://github.com/glee4810/EHRSQLで入手できる。

We present a new text-to-SQL dataset for electronic health records (EHRs). The utterances were collected from 222 hospital staff, including physicians, nurses, insurance review and health records teams, and more. To construct the QA dataset on structured EHR data, we conducted a poll at a university hospital and templatized the responses to create seed questions. Then, we manually linked them to two open-source EHR databases, MIMIC-III and eICU, and included them with various time expressions and held-out unanswerable questions in the dataset, which were all collected from the poll. Our dataset poses a unique set of challenges: the model needs to 1) generate SQL queries that reflect a wide range of needs in the hospital, including simple retrieval and complex operations such as calculating survival rate, 2) understand various time expressions to answer time-sensitive questions in healthcare, and 3) distinguish whether a given question is answerable or unanswerable based on the prediction confidence. We believe our dataset, EHRSQL, could serve as a practical benchmark to develop and assess QA models on structured EHR data and take one step further towards bridging the gap between text-to-SQL research and its real-life deployment in healthcare. EHRSQL is available at https://github.com/glee4810/EHRSQL.
翻訳日:2023-01-19 15:06:44 公開日:2023-01-16
# Gutzwiller共役勾配最小化理論による二バンドハバードモデルのベンチマークと結果

Benchmarks and results of the two-band Hubbard model from the Gutzwiller conjugate gradient minimization theory ( http://arxiv.org/abs/2210.12032v1 )

ライセンス: Link先を確認
Zhuo Ye, Feng Zhang, Yong-Xin Yao, Cai-Zhuang Wang, and Kai-Ming Ho(参考訳) 第1原理gutzwiller共役勾配最小化理論を用いて、一次元の2バンドハバードモデルのエネルギーや二重占有率などの基底状態特性を計算する。 密度行列再正規化群理論による結果との良好な一致は,本手法の精度を示す。 さらに、300倍のスピードアップで計算複雑性を大幅に削減するために、回転不変アプローチが組み込まれている。 さらに,金属とモット絶縁体間のモット遷移を電荷ギャップの評価により検討した。 計算量を大幅に削減し、密度行列再正規化群理論と合理的に一致して位相図を再現する。

Ground-state properties, such as energies and double occupancies, of a one-dimensional two-band Hubbard model are calculated using a first principles Gutzwiller conjugate gradient minimization theory. The favorable agreement with the results from the density matrix renormalization group theory demonstrates the accuracy of our method. A rotationally invariant approach is further incorporated into the method to greatly reduce the computational complexity with a speedup of 300 times. Moreover, we investigate the Mott transition between a metal and a Mott insulator by evaluating the charge gap. With greatly reduced computational effort, our method reproduces the phase diagram in reasonable agreement with the density matrix renormalization group theory.
翻訳日:2023-01-18 19:37:39 公開日:2023-01-16
# 重なりのないカーネルベースオフポリシー推定:半パラメトリック効率を超えたインスタンス最適性

Kernel-based off-policy estimation without overlap: Instance optimality beyond semiparametric efficiency ( http://arxiv.org/abs/2301.06240v1 )

ライセンス: Link先を確認
Wenlong Mou, Peng Ding, Martin J. Wainwright, Peter L. Bartlett(参考訳) 観測データに基づく線形汎関数の最適推定法について検討した。 この種の多くの問題において、広く使われている仮定は厳密な重なり合いであり、すなわち、観測データがどのように関心の方向をカバーするかを測る重要性の均一な有界性である。 それが破られるとき、古典的半パラメトリック効率境界は容易に無限になるので、インスタンス最適リスクは回帰関数をモデル化する関数クラスに依存する。 任意の凸および対称函数クラス $\mathcal{F}$ に対して、線形汎函数の幅広いクラスを推定する際に平均二乗誤差に有界な非漸近局所ミニマックスを導出する。 この下界は古典的な半パラメトリックを洗練し、関数推定における連続性のモジュライと接続する。 もし$\mathcal{f}$ が再生核ヒルベルト空間であるとき、この下限は計算学的に単純な回帰推定子を解析することによって定数係数まで達成できることを証明できる。 一般的な結果を様々な例に適用することにより、半パラメトリック効率の古典的理論($\sqrt{n}$-consistency)と非パラメトリック関数推定に関連する最小速度のスペクトルを解明する。

We study optimal procedures for estimating a linear functional based on observational data. In many problems of this kind, a widely used assumption is strict overlap, i.e., uniform boundedness of the importance ratio, which measures how well the observational data covers the directions of interest. When it is violated, the classical semi-parametric efficiency bound can easily become infinite, so that the instance-optimal risk depends on the function class used to model the regression function. For any convex and symmetric function class $\mathcal{F}$, we derive a non-asymptotic local minimax bound on the mean-squared error in estimating a broad class of linear functionals. This lower bound refines the classical semi-parametric one, and makes connections to moduli of continuity in functional estimation. When $\mathcal{F}$ is a reproducing kernel Hilbert space, we prove that this lower bound can be achieved up to a constant factor by analyzing a computationally simple regression estimator. We apply our general results to various families of examples, thereby uncovering a spectrum of rates that interpolate between the classical theories of semi-parametric efficiency (with $\sqrt{n}$-consistency) and the slower minimax rates associated with non-parametric function estimation.
翻訳日:2023-01-18 16:46:17 公開日:2023-01-16
# ポインタプログラムにおけるシーケンスの分離論理とその決定可能性

A separation logic for sequences in pointer programs and its decidability ( http://arxiv.org/abs/2301.06237v1 )

ライセンス: Link先を確認
Tianyue Cao, Bowen Zhang, Zhao Jin, Yongzhi Cao, Hanpin Wang(参考訳) 分離論理とその変種はポインタプログラムで様々な特性を記述することができる。 しかし、列上の性質に関しては、形式化が難しい場合がある。 可変長シーケンスと多レベルデータ構造のプロパティを扱うために,ヒープ操作プログラムの論理推論にシーケンスを統合するシーケンスヒープ分離論理を提案する。 シーケンス変数とシングルトンヒープ格納シーケンス(シーケンスシングルトンヒープ)の定量化は、私たちのロジックの新しいメンバーです。 さらに,2つのフラグメントの満足度問題について検討した。 シーケンス-ヒープ分離論理の命題的断片は決定可能であり、プログラム変数に2つの交替とシーケンス変数に1つの交替を持つ断片は決定不可能である。 さらに、論理の決定不能な断片と決定不能な断片の境界をプレネックス正規形式で検討する。

Separation logic and its variants can describe various properties on pointer programs. However, when it comes to properties on sequences, one may find it hard to formalize. To deal with properties on variable-length sequences and multilevel data structures, we propose sequence-heap separation logic which integrates sequences into logical reasoning on heap-manipulated programs. Quantifiers over sequence variables and singleton heap storing sequence (sequence singleton heap) are new members in our logic. Further, we study the satisfiability problem of two fragments. The propositional fragment of sequence-heap separation logic is decidable, and the fragment with 2 alternations on program variables and 1 alternation on sequence variables is undecidable. In addition, we explore boundaries between decidable and undecidable fragments of the logic with prenex normal form.
翻訳日:2023-01-18 16:45:54 公開日:2023-01-16
# 多周期時間依存ハミルトニアンの最適・近最適シミュレーション

Optimal/Nearly-optimal simulation of multi-periodic time-dependent Hamiltonians ( http://arxiv.org/abs/2301.06232v1 )

ライセンス: Link先を確認
Kaoru Mizuta(参考訳) ハミルトン力学のシミュレーションは、量子材料を特徴づける最も基本的で重要なタスクの1つである。 近年,ハミルトニアンのブロックエンコーディングを用いた量子アルゴリズムが,量子コンピュータ上での時間進化演算子の効率的なシミュレーションに成功している。 時間非依存ハミルトニアンは、量子固有値変換(QET)または量子特異値変換によって、時間$t$と望ましい精度で最適なクエリ複雑性を持つようにシミュレートすることができるが、時間依存ハミルトニアンは、時間依存を扱うのが難しいため、より大きいクエリ複雑性とより複雑なオークレに直面している。 本稿では,複数の時間周期を持つ時間依存ハミルトニアンのシミュレーションのためのQETに基づくアプローチを確立する。 このような時間依存ハミルトニアンは、時間周期系(フロッケ系)や時間周期系といった様々な非平衡系を含む。 時間依存の難しさを克服することで,多周期時間依存ハミルトニアンの下でのダイナミックスをシミュレートすることができる。t$ と所望の精度 $\varepsilon$ と,単純な oracle と,時間非依存の場合の最適アルゴリズムを両立する。

Simulating Hamiltonian dynamics is one of the most fundamental and significant tasks for characterising quantum materials. Recently, a series of quantum algorithms employing block-encoding of Hamiltonians have succeeded in providing efficient simulation of time-evolution operators on quantum computers. While time-independent Hamiltonians can be simulated by the quantum eigenvalue transformation (QET) or quantum singularvalue transformation with the optimal query complexity in time $t$ and desirable accuracy $\varepsilon$, generic time-dependent Hamiltonians face at larger query complexity and more complicated oracles due to the difficulty of handling time-dependency. In this paper, we establish a QET-based approach for simulating time-dependent Hamiltonians with multiple time-periodicity. Such time-dependent Hamiltonians involve a variety of nonequilibrium systems such as time-periodic systems (Floquet systems) and time-quasiperiodic systems. Overcoming the difficulty of time-dependency, our protocol can simulate the dynamics under multi-periodic time-dependent Hamiltonians with optimal/nearly-optimal query complexity both in time $t$ and desirable accuracy $\varepsilon$, and simple oracles as well as the optimal algorithm for time-independent cases.
翻訳日:2023-01-18 16:45:42 公開日:2023-01-16
# Swarm-SLAM : マルチロボットシステムのためのスパース分散協調型ローカライゼーションとマッピングフレームワーク

Swarm-SLAM : Sparse Decentralized Collaborative Simultaneous Localization and Mapping Framework for Multi-Robot Systems ( http://arxiv.org/abs/2301.06230v1 )

ライセンス: Link先を確認
Pierre-Yves Lajoie, Giovanni Beltrame(参考訳) C-SLAM(Collaborative Simultaneous Localization And Mapping)は、屋内、地下、水中などの外部位置決めシステムを持たない環境でのマルチロボット運用の成功に欠かせないコンポーネントである。 本稿では,オープンソースのc-slamシステムであるswarm-slamについて紹介する。swarm roboticsの重要な特性である,スケーラブルでフレキシブル,分散,スパースを備えた,オープンソースのc-slamシステムである。 本システムは慣性,ライダー,ステレオ,RGB-Dセンシングをサポートし,通信の低減と収束の促進を目的とした,ロボット間ループクロージャ優先技術を含む。 我々は,5つの異なるデータセット上でのROS-2の実装を評価し,アドホックネットワークを介して通信する3つのロボットを用いた実世界の実験を行った。 私たちのコードは公開されています。 https://github.com/MISTLab/Swarm-SLAM

Collaborative Simultaneous Localization And Mapping (C-SLAM) is a vital component for successful multi-robot operations in environments without an external positioning system, such as indoors, underground or underwater. In this paper, we introduce Swarm-SLAM, an open-source C-SLAM system that is designed to be scalable, flexible, decentralized, and sparse, which are all key properties in swarm robotics. Our system supports inertial, lidar, stereo, and RGB-D sensing, and it includes a novel inter-robot loop closure prioritization technique that reduces communication and accelerates convergence. We evaluated our ROS-2 implementation on five different datasets, and in a real-world experiment with three robots communicating through an ad-hoc network. Our code is publicly available: https://github.com/MISTLab/Swarm-SLAM
翻訳日:2023-01-18 16:45:03 公開日:2023-01-16
# ネットワークトラフィックのノベルティ検出--特徴同定のための生存分析を用いて

Novelty Detection in Network Traffic: Using Survival Analysis for Feature Identification ( http://arxiv.org/abs/2301.06229v1 )

ライセンス: Link先を確認
Taylor Bradley, Elie Alhajjar, Nathaniel Bastian(参考訳) 侵入検知システムは、多くの組織のサイバー防衛および回復戦略の重要な要素である。 しかし、これらのシステムの欠点は、悪意のあるネットワークイベントを検出するために既知の攻撃シグネチャに依存することだ。 未知の攻撃タイプやゼロデイエクスプロイトに関しては、現代の侵入検知システムは不足することが多い。 本稿では,サバイバル解析手法に基づく新奇性検出に影響を及ぼすネットワークトラフィックの特徴を同定する非従来的手法を提案する。 具体的には,いくつかのcox比例ハザードモデルとkaplan-meier推定モデルを組み合わせて,未知のネットワーク攻撃をいつ実行しても,分類器が新規性を識別する確率を予測する。 提案モデルは,ランダムフォレスト,ベイジアンリッジ,リニアサポートベクトル回帰分類器を用いた新奇性検出の主な特徴として,pshフラグ数,ackフラグ数,urgフラグ数,ダウン/アップ比の特定に成功している。

Intrusion Detection Systems are an important component of many organizations' cyber defense and resiliency strategies. However, one downside of these systems is their reliance on known attack signatures for detection of malicious network events. When it comes to unknown attack types and zero-day exploits, modern Intrusion Detection Systems often fall short. In this paper, we introduce an unconventional approach to identifying network traffic features that influence novelty detection based on survival analysis techniques. Specifically, we combine several Cox proportional hazards models and implement Kaplan-Meier estimates to predict the probability that a classifier identifies novelty after the injection of an unknown network attack at any given time. The proposed model is successful at pinpointing PSH Flag Count, ACK Flag Count, URG Flag Count, and Down/Up Ratio as the main features to impact novelty detection via Random Forest, Bayesian Ridge, and Linear Support Vector Regression classifiers.
翻訳日:2023-01-18 16:44:38 公開日:2023-01-16
# 深層学習に基づく皮膚病変解析のための新しいカスケードアプローチ

Deep Learning based Novel Cascaded Approach for Skin Lesion Analysis ( http://arxiv.org/abs/2301.06226v1 )

ライセンス: Link先を確認
Shubham Innani, Prasad Dutande, Bhakti Baheti, Ujjwal Baid, and Sanjay Talbar(参考訳) 自動病変解析は皮膚癌診断において重要であり、効果的に治療される。 皮膚内視鏡画像におけるそのような皮膚癌の診断を支援するコンピュータは、臨床医の負担を大幅に低減し、診断精度を向上させる。 研究者はこの問題に広く取り組んでいるが、皮膚病変の早期発見と正確な同定は依然として困難である。 本研究は,2段階の皮膚病変セグメンテーションの枠組みと病変解析の分類に焦点を当てた。 皮膚病変分類のためのエンコーダデコーダアーキテクチャとCNNに基づく分類ネットワークを設計し,深層畳み込みニューラルネットワークアーキテクチャの有効性を検討した。 提案手法は, 精度, 平均交叉率, dice類似度係数の観点から定量的に評価した。 われわれのカスケード・エンド・エンド・エンド・ディープ・ラーニング・ベース・アプローチは最初のアプローチであり,事前のセグメンテーションにより病変の分類精度が著しく向上した。

Automatic lesion analysis is critical in skin cancer diagnosis and ensures effective treatment. The computer aided diagnosis of such skin cancer in dermoscopic images can significantly reduce the clinicians workload and help improve diagnostic accuracy. Although researchers are working extensively to address this problem, early detection and accurate identification of skin lesions remain challenging. This research focuses on a two step framework for skin lesion segmentation followed by classification for lesion analysis. We explored the effectiveness of deep convolutional neural network based architectures by designing an encoder-decoder architecture for skin lesion segmentation and CNN based classification network. The proposed approaches are evaluated quantitatively in terms of the Accuracy, mean Intersection over Union and Dice Similarity Coefficient. Our cascaded end to end deep learning based approach is the first of its kind, where the classification accuracy of the lesion is significantly improved because of prior segmentation.
翻訳日:2023-01-18 16:44:11 公開日:2023-01-16
# DarkVision: 低照度画像/ビデオ認識のためのベンチマーク

DarkVision: A Benchmark for Low-light Image/Video Perception ( http://arxiv.org/abs/2301.06269v1 )

ライセンス: Link先を確認
Bo Zhang, Yuchen Guo, Runzhao Yang, Zhihong Zhang, Jiayi Xie, Jinli Suo and Qionghai Dai(参考訳) 光子制限シナリオのイメージングと知覚は、夜間監視や写真撮影、高速撮影、自律運転といった様々な用途に必要である。 このような場合、カメラは低信号対雑音比に悩まされ、画質が著しく低下し、物体検出や認識といった下流の高レベルの視覚タスクに課題が生じる。 データ駆動型メソッドは、画像復元と高レベルのビジョンタスクの両方で大きな成功を収めています。 しかしながら、光子制限画像/ビデオに対するタスク固有の正確なアノテーションを備えた高品質なベンチマークデータセットの欠如は、研究の進捗を著しく遅らせる。 本稿では,DarkVision という,最初のマルチ照度,マルチカメラ,低照度データセットをコントリビュートし,画像強調と物体検出の両方に役立てる。 明るいペアと暗いペアに画素単位の登録を行い、明るいペアが復元やアノテーションの信頼できる参照を提供する。 データセットは、900の静的なシーンと15のカテゴリのオブジェクト、32のダイナミックなシーンと4つのカテゴリのオブジェクトで構成されている。 各シーンは、異なる3種類のカメラを用いて5つの照度レベルで撮影され、平均光子を定量化データから確実に推定することができる。 静的シーンの画像とダイナミックビデオはそれぞれ7,344件と320,667件のインスタンスを含んでいる。 DarkVisionでは,代表アルゴリズムによる画像/映像強調とオブジェクト検出のためのベースラインを構築した。 darkvisionの例示的応用を示すために,ビデオエンハンスメントとオブジェクト検出の性能向上のための2つの単純かつ効果的なアプローチを提案する。 われわれはDarkVisionが低照度環境における画像および関連するコンピュータビジョンタスクの最先端を前進させると考えている。

Imaging and perception in photon-limited scenarios is necessary for various applications, e.g., night surveillance or photography, high-speed photography, and autonomous driving. In these cases, cameras suffer from low signal-to-noise ratio, which degrades the image quality severely and poses challenges for downstream high-level vision tasks like object detection and recognition. Data-driven methods have achieved enormous success in both image restoration and high-level vision tasks. However, the lack of high-quality benchmark dataset with task-specific accurate annotations for photon-limited images/videos delays the research progress heavily. In this paper, we contribute the first multi-illuminance, multi-camera, and low-light dataset, named DarkVision, serving for both image enhancement and object detection. We provide bright and dark pairs with pixel-wise registration, in which the bright counterpart provides reliable reference for restoration and annotation. The dataset consists of bright-dark pairs of 900 static scenes with objects from 15 categories, and 32 dynamic scenes with 4-category objects. For each scene, images/videos were captured at 5 illuminance levels using three cameras of different grades, and average photons can be reliably estimated from the calibration data for quantitative studies. The static-scene images and dynamic videos respectively contain around 7,344 and 320,667 instances in total. With DarkVision, we established baselines for image/video enhancement and object detection by representative algorithms. To demonstrate an exemplary application of DarkVision, we propose two simple yet effective approaches for improving performance in video enhancement and object detection respectively. We believe DarkVision would advance the state-of-the-arts in both imaging and related computer vision tasks in low-light environment.
翻訳日:2023-01-18 16:37:20 公開日:2023-01-16
# マルチモダリティは一様性を助ける:マルチモダリティモデルを用いたクロスモーダル・ファウショット学習

Multimodality Helps Unimodality: Cross-Modal Few-Shot Learning with Multimodal Models ( http://arxiv.org/abs/2301.06267v1 )

ライセンス: Link先を確認
Zhiqiu Lin, Samuel Yu, Zhiyi Kuang, Deepak Pathak, Deva Ramana(参考訳) 少数ショット学習として知られる最小限の命令で新しいタスクを素早く学習する能力は、インテリジェントエージェントの中心的な側面である。 古典的な少数ショットベンチマークでは、単一のモダリティから少数ショットのサンプルを使用するが、そのようなサンプルでは概念クラス全体を特徴付けるには不十分である。 対照的に、人間はクロスモーダル情報を使って新しい概念を効率的に学習する。 この研究で、実際に${\bf visual}$dog classifier by ${\bf read} $ing about dog and ${\bf listen} $ing to them bark. で、より優れた${\bf visual}$dog classifierを構築できることを示した。 そのため、最近のCLIPのようなマルチモーダル基盤モデルは本質的にクロスモーダルであり、異なるモダリティを同じ表現空間にマッピングする。 具体的には,異なるモダリティにまたがる少数の例から学ぶ,単純なクロスモーダル適応手法を提案する。 クラス名を追加のワンショットトレーニングサンプルとして再利用することにより、視覚言語適応のための恥ずかしいほど単純な線形分類器を用いてSOTA結果を得る。 さらに,提案手法は,プレフィックスチューニングやアダプタ,分類器アンサンブルといった既存の手法の恩恵を受けることができることを示す。 最後に、視覚と言語以外のモダリティを検討するために、最初の(知識のある)オーディオビジュアルのマイノリティベンチマークを構築し、クロスモーダルトレーニングを使用して、画像と音声の分類のパフォーマンスを向上させる。

The ability to quickly learn a new task with minimal instruction - known as few-shot learning - is a central aspect of intelligent agents. Classical few-shot benchmarks make use of few-shot samples from a single modality, but such samples may not be sufficient to characterize an entire concept class. In contrast, humans use cross-modal information to learn new concepts efficiently. In this work, we demonstrate that one can indeed build a better ${\bf visual}$ dog classifier by ${\bf read}$ing about dogs and ${\bf listen}$ing to them bark. To do so, we exploit the fact that recent multimodal foundation models such as CLIP are inherently cross-modal, mapping different modalities to the same representation space. Specifically, we propose a simple cross-modal adaptation approach that learns from few-shot examples spanning different modalities. By repurposing class names as additional one-shot training samples, we achieve SOTA results with an embarrassingly simple linear classifier for vision-language adaptation. Furthermore, we show that our approach can benefit existing methods such as prefix tuning, adapters, and classifier ensembling. Finally, to explore other modalities beyond vision and language, we construct the first (to our knowledge) audiovisual few-shot benchmark and use cross-modal training to improve the performance of both image and audio classification.
翻訳日:2023-01-18 16:36:54 公開日:2023-01-16
# アダプティブ深度グラフアテンションネットワーク

Adaptive Depth Graph Attention Networks ( http://arxiv.org/abs/2301.06265v1 )

ライセンス: Link先を確認
Jingbo Zhou, Yixuan Du, Ruqiong Zhang, Rui Zhang(参考訳) 最も人気のあるgnnアーキテクチャの1つとして、グラフアテンションネットワーク(gat)はグラフ表現のための最も高度な学習アーキテクチャと考えられており、印象的な結果を含む様々なグラフマイニングタスクで広く使われている。 しかし、GATが提案されて以来、既存の研究は、GATの性能とレイヤー数との関係について体系的な洞察を与えていない。 本稿では,系統的な実験を行い,実験結果に基づいて,(1)レイヤー数の増加に伴ってGATモデルの精度を制限する主な要因がオーバーカッシング現象であり,(2)GNNモデルに適用されたこれまでの改善の中で,GATモデルの性能を著しく向上させることができるのは残コネクションのみである,という2つの重要な事実を見出した。 これら2つの重要な知見を組み合わせることで、過度なオーバーカッシングによる特徴情報の損失を軽減し、深いGATモデルの性能を向上させるという理論的な説明を提供する。 これは、研究者が適切な深さと良好な性能でGAT変種モデルを設計するための実証的な洞察とガイドラインを提供する。 提案手法の有効性を示すため,我々は,グラフのスパース性に基づいてレイヤ数を適応的に選択するgat変種モデルアドギャットを提案し,本モデルの有効性が元のgatよりも大幅に向上していることを実験的に実証する。

As one of the most popular GNN architectures, the graph attention networks (GAT) is considered the most advanced learning architecture for graph representation and has been widely used in various graph mining tasks with impressive results. However, since GAT was proposed, none of the existing studies have provided systematic insight into the relationship between the performance of GAT and the number of layers, which is a critical issue in guiding model performance improvement. In this paper, we perform a systematic experimental evaluation and based on the experimental results, we find two important facts: (1) the main factor limiting the accuracy of the GAT model as the number of layers increases is the oversquashing phenomenon; (2) among the previous improvements applied to the GNN model, only the residual connection can significantly improve the GAT model performance. We combine these two important findings to provide a theoretical explanation that it is the residual connection that mitigates the loss of original feature information due to oversquashing and thus improves the deep GAT model performance. This provides empirical insights and guidelines for researchers to design the GAT variant model with appropriate depth and well performance. To demonstrate the effectiveness of our proposed guidelines, we propose a GAT variant model-ADGAT that adaptively selects the number of layers based on the sparsity of the graph, and experimentally demonstrate that the effectiveness of our model is significantly improved over the original GAT.
翻訳日:2023-01-18 16:36:28 公開日:2023-01-16
# 自律運転における協調的知覚 : 方法・データセット・課題

Collaborative Perception in Autonomous Driving: Methods, Datasets and Challenges ( http://arxiv.org/abs/2301.06262v1 )

ライセンス: Link先を確認
Yushan Han, Hui Zhang, Huifang Li, Yi Jin, Congyan Lang, Yidong Li(参考訳) 協調認識は、自律運転における閉塞とセンサ障害の問題に対処するために不可欠である。 近年,協調的知覚に関する深層学習が盛んになり,様々な手法が提案されている。 この分野の基本的なアーキテクチャと重要なコンポーネントをレビューし、分析する研究もあるが、知覚ネットワークや大規模協調認識データセットにおいて、体系的な協調モジュールに関するレビューはいまだにない。 この研究の主な目標は、上記の課題に対処し、この分野における最近の業績を総合的にレビューすることである。 まず,基本的な技術と協調方式を紹介する。 続いて,ネットワーク内の協調モジュールを系統的に要約し,協調効率と性能を向上させるとともに,協調の堅牢性と安全性を確保する。 次に,大規模公開データセットを提示し,これらのベンチマークで定量的な結果を要約する。 最後に,今後の課題と今後の研究の方向性について論じる。

Collaborative perception is essential to address occlusion and sensor failure issues in autonomous driving. In recent years, deep learning on collaborative perception has become even thriving, with numerous methods have been proposed. Although some works have reviewed and analyzed the basic architecture and key components in this field, there is still a lack of reviews on systematical collaboration modules in perception networks and large-scale collaborative perception datasets. The primary goal of this work is to address the abovementioned issues and provide a comprehensive review of recent achievements in this field. First, we introduce fundamental technologies and collaboration schemes. Following that, we provide an overview of practical collaborative perception methods and systematically summarize the collaboration modules in networks to improve collaboration efficiency and performance while also ensuring collaboration robustness and safety. Then, we present large-scale public datasets and summarize quantitative results on these benchmarks. Finally, we discuss the remaining challenges and promising future research directions.
翻訳日:2023-01-18 16:36:01 公開日:2023-01-16
# 分子応答特性の量子シミュレーション

Quantum simulation of molecular response properties ( http://arxiv.org/abs/2301.06260v1 )

ライセンス: Link先を確認
Ashutosh Kumar, Ayush Asthana, Vibin Abraham, T. Daniel Crawford, Nicholas J. Mayhall, Yu Zhang, Lukasz Cincio, Sergei Tretiak, Pavel A. Dub(参考訳) 分子系の外部電磁界への応答の正確なモデリングは、古典的コンピュータ、特に強い電子相関の仕組みにおいて困難である。 本稿では,近距離量子コンピュータ上での分子応答特性を計算する量子線形応答(qLR)理論を提案する。 運動方程式(qEOM)理論の最近開発された変種に触発されて、qLR形式は「キラー条件」を用いて励起作用素多様体を満足させ、量子資源要求の減少とともに多くの理論的利点を提供する。 この研究では、状態固有の応答特性を計算するためにqEOMフレームワークも使用しました。 さらに, 雑音のない量子シミュレーションにより, qlr法を用いて計算した応答特性は, adapt-vqeアルゴリズムにより得られた基底状態波動関数の品質向上により, 古典的な結合クラスター型線形応答モデルよりも精度が向上することを示した。

Accurate modeling of the response of molecular systems to an external electromagnetic field is challenging on classical computers, especially in the regime of strong electronic correlation. In this paper, we develop a quantum linear response (qLR) theory to calculate molecular response properties on near-term quantum computers. Inspired by the recently developed variants of the quantum counterpart of equation of motion (qEOM) theory, the qLR formalism employs "killer condition" satisfying excitation operator manifolds that offers a number of theoretical advantages along with reduced quantum resource requirements. We also used the qEOM framework in this work to calculate state-specific response properties. Further, through noise-less quantum simulations, we show that response properties calculated using the qLR approach are more accurate than the ones obtained from the classical coupled-cluster based linear response models due to the improved quality of the ground-state wavefunction obtained using the ADAPT-VQE algorithm.
翻訳日:2023-01-18 16:35:46 公開日:2023-01-16
# 2つのc(Omplex)の物語

Tale of two c(omplex)ities ( http://arxiv.org/abs/2301.06259v1 )

ライセンス: Link先を確認
Saptarshi Roy, Ambuj Tewari, Ziwei Zhu(参考訳) 数十年の間、ベストサブセット選択(BSS)は、主に計算ボトルネックのために統計学者を除いた。 しかし、最近まで、現代の計算のブレークスルーはBSSに対する理論的な関心を再燃させ、新たな発見をもたらした。 最近,Guoら (2020) は, BSSのモデル選択性能は, LASSO, SCAD, MCPなどの現代的な手法とは異なり, 設計依存性に頑健なマージン量で管理されていることを示した。 本稿では,それらの理論結果に動機づけられ,高次元スパース線形回帰設定における最適部分集合選択の変数選択特性について検討する。 識別可能性マージンとは別に、以下の2つの複雑性測度がモデル一貫性のマージン条件を特徴付ける基本的な役割を担っていることを示す。 (a)残存特徴の複雑さ (b)突発的射影の複雑さ。 特に,2つの複雑性尺度のうち,識別可能マージン量と支配的マージン量のみに依存する単純なマージン条件を確立する。 さらに,BSSのモデル整合性には,類似のマージン量と複雑性尺度による類似のマージン条件も必要であることを示す。 複雑性尺度のより広範な理解のために、異なる相関構造下でのBSSのモデル選択性能に関する理論的理解を広げる複雑性尺度のバリエーションを示すための簡単な例についても考察する。

For decades, best subset selection (BSS) has eluded statisticians mainly due to its computational bottleneck. However, until recently, modern computational breakthroughs have rekindled theoretical interest in BSS and have led to new findings. Recently, Guo et al. (2020) showed that the model selection performance of BSS is governed by a margin quantity that is robust to the design dependence, unlike modern methods such as LASSO, SCAD, MCP, etc. Motivated by their theoretical results, in this paper, we also study the variable selection properties of best subset selection for high-dimensional sparse linear regression setup. We show that apart from the identifiability margin, the following two complexity measures play a fundamental role in characterizing the margin condition for model consistency: (a) complexity of residualized features, (b) complexity of spurious projections. In particular, we establish a simple margin condition that only depends only on the identifiability margin quantity and the dominating one of the two complexity measures. Furthermore, we show that a similar margin condition depending on similar margin quantity and complexity measures is also necessary for model consistency of BSS. For a broader understanding of the complexity measures, we also consider some simple illustrative examples to demonstrate the variation in the complexity measures which broadens our theoretical understanding of the model selection performance of BSS under different correlation structures.
翻訳日:2023-01-18 16:35:31 公開日:2023-01-16
# 周期性が異なる時間周期 $\mathcal{pt}$ と anti-$\mathcal{pt}$-symmetric hamiltonian の安定性

Stability of time-periodic $\mathcal{PT}$ and anti-$\mathcal{PT}$-symmetric Hamiltonians with different periodicities ( http://arxiv.org/abs/2301.06255v1 )

ライセンス: Link先を確認
Julia Cen, Yogesh N. Joglekar, Avadh Saxena(参考訳) 時間周期係数を持つエルミートハミルトニアンは、フロケ理論を通じて解析することができ、標準的な量子シミュレータにおいてフロックハミルトニアン工学に広く用いられている。 非エルミート的ハミルトニアンに一般化された時間周期性は、複素平面を横断するフロケ準エネルギーの風景を設計するための道を提供する。 Floquet理論を用いて、周期性が異なる係数を持つ2レベル非エルミートハミルトニアンについて検討する。 解析および数値計算により,実フロッケ準エネルギーと例外点(ep)縮退の輪郭によって定義される安定性領域を得る。 我々は,循環変化に伴う相を研究するために解析を拡張する。 その結果, 周期的でない非エルミート的ハミルトニアンは安定かつ不安定な領域の豊かな景観を生み出すことがわかった。

Hermitian Hamiltonians with time-periodic coefficients can be analyzed via Floquet theory, and have been extensively used for engineering Floquet Hamiltonians in standard quantum simulators. Generalized to non-Hermitian Hamiltonians, time-periodicity offers avenues to engineer the landscape of Floquet quasi-energies across the complex plane. We investigate two-level non-Hermitian Hamiltonians with coefficients that have different periodicities using Floquet theory. By analytical and numerical calculations, we obtain their regions of stability, defined by real Floquet quasi-energies, and contours of exceptional point (EP) degeneracies. We extend our analysis to study the phases that accompany the cyclic changes. Our results demonstrate that time-periodic, non-Hermitian Hamiltonians generate a rich landscape of stable and unstable regions.
翻訳日:2023-01-18 16:35:09 公開日:2023-01-16
# 機械学習によるリードミューラーサブコードの効率的な復号化

Machine Learning-Aided Efficient Decoding of Reed-Muller Subcodes ( http://arxiv.org/abs/2301.06251v1 )

ライセンス: Link先を確認
Mohammad Vahid Jamali, Xiyang Liu, Ashok Vardhan Makkuva, Hessam Mahdavifar, Sewoong Oh, and Pramod Viswanath(参考訳) Reed-Muller (RM) 符号は、一般的なバイナリインプットメモリレス対称チャネルの容量を達成し、スケーリング法則の点でランダムコードに匹敵する性能を持つ。 しかし、一般的なコードパラメータの最大値に近い性能を持つ効率的なデコーダは欠如している。 また、限定的なレートしか認めていない。 本稿では,フレキシブルレートのRM符号のサブコードに焦点をあてる。 まず,最近導入された再帰的投射集約(rpa)復号アルゴリズムをrmサブコードに拡張する。 サブRPAと呼ばれるデコードアルゴリズムの複雑さを低減するために、プロジェクションを熟成するための異なるアプローチを検討する。 次に,本アルゴリズムのソフト決定に基づくバージョンであるSoft-subRPAを導出し,サブRPAの性能を向上するだけでなく,識別可能な復号アルゴリズムを実現する。 次に、soft-subrpaアルゴリズムに基づいて、機械学習(ml)モデルをトレーニングして、デコードエラー率を最小化するプロジェクションの \textit{good}集合を探索するフレームワークを提供する。 MLモデルをトレーニングすることで、プロジェクションの数を大幅に少なくして、フルプロジェクションデコーディングのパフォーマンスに非常に近いことが可能になります。 また,rmサブコードの復号化におけるプロジェクションの選択は著しく重要であり,ml支援のプロジェクションプラニング方式では,妥当な数のプロジェクションが与えられれば,全プロジェクションに比べて性能が著しく低下する\textit{good} 選択を見出すことができることを示した。

Reed-Muller (RM) codes achieve the capacity of general binary-input memoryless symmetric channels and have a comparable performance to that of random codes in terms of scaling laws. However, they lack efficient decoders with performance close to that of a maximum-likelihood decoder for general code parameters. Also, they only admit limited sets of rates. In this paper, we focus on subcodes of RM codes with flexible rates. We first extend the recently-introduced recursive projection-aggregation (RPA) decoding algorithm to RM subcodes. To lower the complexity of our decoding algorithm, referred to as subRPA, we investigate different approaches to prune the projections. Next, we derive the soft-decision based version of our algorithm, called soft-subRPA, that not only improves upon the performance of subRPA but also enables a differentiable decoding algorithm. Building upon the soft-subRPA algorithm, we then provide a framework for training a machine learning (ML) model to search for \textit{good} sets of projections that minimize the decoding error rate. Training our ML model enables achieving very close to the performance of full-projection decoding with a significantly smaller number of projections. We also show that the choice of the projections in decoding RM subcodes matters significantly, and our ML-aided projection pruning scheme is able to find a \textit{good} selection, i.e., with negligible performance degradation compared to the full-projection case, given a reasonable number of projections.
翻訳日:2023-01-18 16:34:52 公開日:2023-01-16
# 高感度炭化ケイ素希釈温度計

High sensitivity silicon carbide divacancy-based thermometer ( http://arxiv.org/abs/2301.06250v1 )

ライセンス: Link先を確認
Qin-Yue Luo, Shuang Zhao, Qi-Cheng Hu, Wei-Ke Quan, Zi-Qi Zhu, Jia-Jun Li, Jun-Feng Wang(参考訳) 炭化ケイ素のカラーセンターは、多彩な量子センサーになりうる。 特に近年,広い温度範囲の温度センサが実現されている。 しかし、色中心が短くなったため、感度は制限されている。 本研究では, サーマルカーパーセル・マイボーム・ギル (TCPMG) 法による高感度炭化ケイ素希釈温度計を実現する。 まず、温度関数としてのpl6空隙のゼロフィールド分割dを−99.7khz/kの直線傾斜で測定する。 TCPMGパルスのコヒーレンス時間はパルス数と直線的に増加し、最も長いコヒーレンス時間は約21usであり、これはデフォーカス時間より10倍大きい。 対応する温度感知感度は13.4 mK/Hz1/2であり、これは以前の結果の約15倍である。 最後に,TMPGパルスを用いて実験室の温度変化を24時間監視する。 この実験は、半導体産業、生物学、材料科学における炭化ケイ素系高感度温度計の応用の道を開いた。

Color centers in silicon carbide have become potentially versatile quantum sensors. Particularly, wide temperature range temperature sensing has been realized in recent years. However, the sensitivity is limited due to the short dephasing time of the color centers. In this work, we realize a high sensitivity silicon carbide divacancy-based thermometer using the thermal Carr-Purcell-Meiboom-Gill (TCPMG) method. First, the zero field splitting D of PL6 divacancy as a function of temperature is measured with a linear slope of -99.7 kHz/K. The coherence times of TCPMG pulses linearly increase with the pulse number and the longest coherence time is about 21 us, which is ten times larger than dephasing time. The corresponding temperature sensing sensitivity is 13.4 mK/Hz1/2, which is about 15 times higher than previous results. Finally, we monitor the laboratory temperature variations for 24 hours using the TCMPG pulse. The experiments pave the way for the applications of silicon carbide-based high sensitivity thermometer in the semiconductor industry, biology, and materials sciences.
翻訳日:2023-01-18 16:34:26 公開日:2023-01-16
# BEAGLE: より優れた防御のためのディープラーニングバックドア攻撃の法医学

BEAGLE: Forensics of Deep Learning Backdoor Attack for Better Defense ( http://arxiv.org/abs/2301.06241v1 )

ライセンス: Link先を確認
Siyuan Cheng, Guanhong Tao, Yingqi Liu, Shengwei An, Xiangzhe Xu, Shiwei Feng, Guangyu Shen, Kaiyuan Zhang, Qiuling Xu, Shiqing Ma, Xiangyu Zhang(参考訳) ディープラーニングのバックドア攻撃は、従来のサイバー攻撃と同様の脅威モデルを持つ。 従来のサイバー攻撃に対する重要な対策である攻撃法医学は、モデルバックドア攻撃の防御において重要である。 本稿では,新しいモデルバックドア法医学手法を提案する。 バックドアトリガーを持つ入力などの攻撃サンプルがいくつかある場合、このテクニックは自動的にそれらを分解して、入力と対応するトリガーをきれいにします。 その後、そのプロパティに基づいてトリガーをクラスタし、自動攻撃の分類と要約を可能にする。 バックドアスキャナは自動的に合成され、他のモデルで同じタイプのバックドアのインスタンスを見つけることができる。 2,532モデル,ポピュラーアタック10モデルについて評価し,本手法の有効性を9ベースラインと比較した。 分解されたクリーンな入力とトリガーは、地上の真実によく似ている。 合成スキャナーは既存のスキャナーのバニラバージョンを著しく上回り、様々な種類の攻撃に対してほとんど一般化できない。

Deep Learning backdoor attacks have a threat model similar to traditional cyber attacks. Attack forensics, a critical counter-measure for traditional cyber attacks, is hence of importance for defending model backdoor attacks. In this paper, we propose a novel model backdoor forensics technique. Given a few attack samples such as inputs with backdoor triggers, which may represent different types of backdoors, our technique automatically decomposes them to clean inputs and the corresponding triggers. It then clusters the triggers based on their properties to allow automatic attack categorization and summarization. Backdoor scanners can then be automatically synthesized to find other instances of the same type of backdoor in other models. Our evaluation on 2,532 pre-trained models, 10 popular attacks, and comparison with 9 baselines show that our technique is highly effective. The decomposed clean inputs and triggers closely resemble the ground truth. The synthesized scanners substantially outperform the vanilla versions of existing scanners that can hardly generalize to different kinds of attacks.
翻訳日:2023-01-18 16:34:14 公開日:2023-01-16
# 喘息患者における大気汚染と呼吸速度の因果関係の同定のためのセンサデータ駆動分析

Sensor data-driven analysis for identification of causal relationships between exposure to air pollution and respiratory rate in asthmatics ( http://arxiv.org/abs/2301.06300v1 )

ライセンス: Link先を確認
D K Arvind and S Maiya(参考訳) 2020年10月に発表されたlancetの報告書によると、大気汚染は世界の健康にとって最もリスクの高い5つの要因の1つであり、平均寿命を20ヶ月削減している。 本稿では, センサから得られる2つの多変量時系列データストリームの因果関係を確立するためのデータ駆動手法について述べる。 人体に装着したAirspeckモニターから収集した空気力学的サイズ2.5um (PM2.5)未満の粒子状物質への個人曝露と, Respeckモニターが胸部に塗布したプラスターとして測定した連続呼吸速度(ブレス)について述べる。 以上の結果から,PCMCI+アルゴリズムを用いた113人の喘息思春期の青年のコホートを用いて,mpm曝露のラグと呼吸速度の短期因果関係を学習した。 異なる実験で1分15分の解像度のデータを用いて,最大遅延8時間までの因果効果を検討する。 PM2.5曝露と呼吸速度の個人化露光応答関係は、喘息青年期における日常生活における短期的影響として初めて示された。 本研究は, 今後, 同様の疫学研究へのアプローチの可能性を高めるために, 因果発見における特定のオープンな問題への取り組みを推奨することにつながる。

According to the Lancet report on the global burden of disease published in October 2020, air pollution is among the five highest risk factors for global health, reducing life expectancy on average by 20 months. This paper describes a data-driven method for establishing causal relationships within and between two multivariate time series data streams derived from wearable sensors: personal exposure to airborne particulate matter of aerodynamic sizes less than 2.5um (PM2.5) gathered from the Airspeck monitor worn on the person and continuous respiratory rate (breaths per minute) measured by the Respeck monitor worn as a plaster on the chest. Results are presented for a cohort of 113 asthmatic adolescents using the PCMCI+ algorithm to learn the short-term causal relationships between lags of \pm exposure and respiratory rate. We consider causal effects up to a maximum delay of 8 hours, using data at both a 1 minute and 15 minute resolution in different experiments. For the first time a personalised exposure-response relationship between PM2.5 exposure and respiratory rate has been demonstrated to exist for short-term effects in asthmatic adolescents during their everyday lives. Our results lead to recommendations for work on specific open problems in causal discovery, to increase the feasibility of this approach for similar epidemiology studies in the future.
翻訳日:2023-01-18 16:28:50 公開日:2023-01-16
# 頑健な最適輸送の理論的・計算的側面と統計学および機械学習への応用

Theoretical and computational aspects of robust optimal transportation, with applications to statistics and machine learning ( http://arxiv.org/abs/2301.06297v1 )

ライセンス: Link先を確認
Yiming Ma, Hang Liu, Davide La Vecchia(参考訳) 最適輸送(ot)理論と関連する$p$-wasserstein距離(w_p$, $p\geq 1$)は、統計と機械学習で一般的なツールである。 最近の研究では、ot と $w_p$ に基づく推論は外れ値に敏感であると述べている。 この問題に対処するため、私たちは、プリマルot問題(robot)のロバストバージョンを開発し、ロバストなwaserstein距離と呼ばれる$w_1$のロバストバージョンを定義していることを示します。 我々は,この新しい距離の特性を研究し,最小距離推定器を定義する。 これにより、重い尾の分布を推定するためにOTメソッドの使用を拡張できます。 また,提案する推定器の統計的保証も提供する。 さらに,ロボットの二重形態を導出し,その機械学習への適用性を示す。 数値的なエクササイズ(補足材料も参照)は,本手法がもたらすメリットの証拠となる。

Optimal transport (OT) theory and the related $p$-Wasserstein distance ($W_p$, $p\geq 1$) are popular tools in statistics and machine learning. Recent studies have been remarking that inference based on OT and on $W_p$ is sensitive to outliers. To cope with this issue, we work on a robust version of the primal OT problem (ROBOT) and show that it defines a robust version of $W_1$, called robust Wasserstein distance, which is able to downweight the impact of outliers. We study properties of this novel distance and use it to define minimum distance estimators. Our novel estimators do not impose any moment restrictions: this allows us to extend the use of OT methods to inference on heavy-tailed distributions. We also provide statistical guarantees of the proposed estimators. Moreover, we derive the dual form of the ROBOT and illustrate its applicability to machine learning. Numerical exercises (see also the supplementary material) provide evidence of the benefits yielded by our methods.
翻訳日:2023-01-18 16:28:26 公開日:2023-01-16
# オープンワールドノベルティに適応するニューロシンボリック世界モデル

Neuro-Symbolic World Models for Adapting to Open World Novelty ( http://arxiv.org/abs/2301.06294v1 )

ライセンス: Link先を確認
Jonathan Balloch and Zhiyu Lin and Robert Wright and Xiangyu Peng and Mustafa Hussain and Aarun Srinivas and Julia Kim and Mark O. Riedl(参考訳) オープンワールドのノベルティ - 環境の力学や性質の突然の変化 - は現実世界でよくある現象である。 ノベルティ適応は、ノベルティ後のポリシーパフォーマンスを改善するエージェントの能力である。 ほとんどの強化学習(RL)法は、世界は閉じた、固定されたプロセスであると仮定する。 結果として、RLポリシーは新規性に非効率に適応する。 そこで本研究では,迅速な新規性適応のための,エンドツーエンドのトレーニング可能なニューロシンボリックワールドモデルであるWorldClonerを紹介する。 WorldClonerは、プレノベルティ環境遷移の効率的なシンボル表現を学び、この遷移モデルを使用して、新規性を検出し、単一ショット方式で新規性に適応する。 さらに、WorldClonerは、想像力に基づく適応を使用してポリシー学習プロセスを強化する。 ポストノベルティ環境における'虚像'遷移と相互作用をブレンドすることで、全体の環境相互作用を少なくして性能を回復することができる。 逐次的意思決定問題における新しさを研究するために設計された環境を用いて,シンボリックワールドモデルが,モデルベースおよびモデルベースニューラルネットワークのみの強化学習手法よりも,そのニューラルポリシーを効率的に適応させるのに役立つことを示す。

Open-world novelty--a sudden change in the mechanics or properties of an environment--is a common occurrence in the real world. Novelty adaptation is an agent's ability to improve its policy performance post-novelty. Most reinforcement learning (RL) methods assume that the world is a closed, fixed process. Consequentially, RL policies adapt inefficiently to novelties. To address this, we introduce WorldCloner, an end-to-end trainable neuro-symbolic world model for rapid novelty adaptation. WorldCloner learns an efficient symbolic representation of the pre-novelty environment transitions, and uses this transition model to detect novelty and efficiently adapt to novelty in a single-shot fashion. Additionally, WorldCloner augments the policy learning process using imagination-based adaptation, where the world model simulates transitions of the post-novelty environment to help the policy adapt. By blending ''imagined'' transitions with interactions in the post-novelty environment, performance can be recovered with fewer total environment interactions. Using environments designed for studying novelty in sequential decision-making problems, we show that the symbolic world model helps its neural policy adapt more efficiently than model-based and model-based neural-only reinforcement learning methods.
翻訳日:2023-01-18 16:28:09 公開日:2023-01-16
# オンライン手書き認識におけるタブレットと紙ドメイン適応の表現学習

Representation Learning for Tablet and Paper Domain Adaptation in Favor of Online Handwriting Recognition ( http://arxiv.org/abs/2301.06293v1 )

ライセンス: Link先を確認
Felix Ott and David R\"ugamer and Lucas Heublein and Bernd Bischl and Christopher Mutschler(参考訳) 機械学習モデルのパフォーマンスは、当初トレーニングされたデータと似ているが異なるドメインのデータに適用された時に低下する。 ドメイン適応(DA)の目標は、ドメイン不変表現を学習するための最適な特徴変換を探すことによって、ドメインシフト問題を緩和することである。 このようなドメインシフトは、手書き認識(hwr)アプリケーションにおいて、手書きの動作パターンとペンの動作パターンが紙やタブレットの書き込みと異なる場合に現れる。 これは、慣性測定ユニットを統合したペンからオンライン手書き(OnHW)用のセンサデータに表示されます。 本稿では,タブレットと紙データ間のOnHW認識のための教師付きDA手法を提案する。 提案手法は,最大平均誤差や相関アライメントなどの損失関数を利用して,ドメイン不変の特徴表現(タブレットと紙の特徴の類似性)を学習する。 タブレットデータセットのサンプル数を増やすために、補助ドメイン(すなわち紙サンプル)の負のサンプルを取る三重項損失を使用する。 我々は,新しいシーケンスベースのOnHWデータセット(言い換えれば単語)の評価を行い,ペアワイズ学習を用いて早期融合戦略による紙ドメインの改良を示す。

The performance of a machine learning model degrades when it is applied to data from a similar but different domain than the data it has initially been trained on. The goal of domain adaptation (DA) is to mitigate this domain shift problem by searching for an optimal feature transformation to learn a domain-invariant representation. Such a domain shift can appear in handwriting recognition (HWR) applications where the motion pattern of the hand and with that the motion pattern of the pen is different for writing on paper and on tablet. This becomes visible in the sensor data for online handwriting (OnHW) from pens with integrated inertial measurement units. This paper proposes a supervised DA approach to enhance learning for OnHW recognition between tablet and paper data. Our method exploits loss functions such as maximum mean discrepancy and correlation alignment to learn a domain-invariant feature representation (i.e., similar covariances between tablet and paper features). We use a triplet loss that takes negative samples of the auxiliary domain (i.e., paper samples) to increase the amount of samples of the tablet dataset. We conduct an evaluation on novel sequence-based OnHW datasets (i.e., words) and show an improvement on the paper domain with an early fusion strategy by using pairwise learning.
翻訳日:2023-01-18 16:27:46 公開日:2023-01-16
# 人物識別におけるメタジェネレーティブアタック

Meta Generative Attack on Person Reidentification ( http://arxiv.org/abs/2301.06286v1 )

ライセンス: Link先を確認
A V Subramanyam(参考訳) 対人攻撃は人身元確認で近年調査されている。 これらの攻撃は、クロスデータセットまたはクロスモデル設定の下でうまく機能する。 しかしながら、クロスデータセットのクロスモデルシナリオに存在する課題は、これらのモデルが同様の精度を達成できない。 そこで本研究では,異なるモデルとデータセット間での転送性の向上を目標として提案手法を提案する。 モデル全体のパフォーマンスを向上させるためのマスクを生成し、問題となるクロスデータセットのクロスモデル設定の一般化性を高めるためにメタ学習を使用します。 マーケット-1501、デュークMTMC-reID、MSMT-17の実験は、他の攻撃と比較して良好な結果を示した。

Adversarial attacks have been recently investigated in person re-identification. These attacks perform well under cross dataset or cross model setting. However, the challenges present in cross-dataset cross-model scenario does not allow these models to achieve similar accuracy. To this end, we propose our method with the goal of achieving better transferability against different models and across datasets. We generate a mask to obtain better performance across models and use meta learning to boost the generalizability in the challenging cross-dataset cross-model setting. Experiments on Market-1501, DukeMTMC-reID and MSMT-17 demonstrate favorable results compared to other attacks.
翻訳日:2023-01-18 16:27:27 公開日:2023-01-16
# PIGEON:関係グラフニューラルネットワークのエンドツーエンドトレーニングと推論のためのCUDAコードジェネレータ最適化

PIGEON: Optimizing CUDA Code Generator for End-to-End Training and Inference of Relational Graph Neural Networks ( http://arxiv.org/abs/2301.06284v1 )

ライセンス: Link先を確認
Kun Wu, Mert Hidayeto\u{g}lu, Xiang Song, Sitao Huang, Da Zheng, Israt Nisa, Wen-mei Hwu(参考訳) 関係グラフニューラルネットワーク (relational graph neural network, rgnn) は、異種グラフにおける異なる種類のノードやエッジをモデル化する専用の構造を持つグラフニューラルネットワーク (gnns) である。 RGNNは、その汎用性と正確性から、多くの現実世界のアプリケーションで採用されているが、それら固有の計算パターン、プログラミングインターフェースとカーネルAPIのギャップ、およびデータレイアウトと不均一性との結合によるカーネルの最適化における重いプログラミングの取り組みにより、パフォーマンスとシステム設計上の課題を提起している。 これらの課題に体系的に対処するために、新しい2レベル中間表現(IR)とコードジェネレータフレームワークであるPigeonを提案する。 a)は、プログラミングインターフェースとカーネルAPIの間のギャップを埋めるために、RGNNモデルのキーとなる特性を表す。 (b)モデルセマンティクス、データレイアウト、演算子固有の最適化を分離し、プログラミングの労力を削減する。 c) 演算子間変換、データレイアウト、オペレータ固有のスケジュールにおける最適化の機会を表現し、活用する。 1つの汎用行列乗算(GEMM)テンプレートとノード/エッジトラバーサルテンプレート上に構築することで、Deep Graph Library(DGL)とOpen Graph Benchmark(OGB)が提供する異種グラフの実行時に、特定のモデルにおける最先端の公開システムと比較して、推論の7.8倍のスピードアップとトレーニングの5.6倍のスピードアップを達成する。 Pigeonはメモリ外エラー(OOM)も少なくする。 さらに, 最大2.2倍の加速を実現するために, 線形作用素融合とコンパクト化を提案する。

Relational graph neural networks (RGNNs) are graph neural networks (GNNs) with dedicated structures for modeling the different types of nodes and/or edges in heterogeneous graphs. While RGNNs have been increasingly adopted in many real-world applications due to their versatility and accuracy, they pose performance and system design challenges due to their inherent computation patterns, gap between the programming interface and kernel APIs, and heavy programming efforts in optimizing kernels caused by their coupling with data layout and heterogeneity. To systematically address these challenges, we propose Pigeon, a novel two-level intermediate representation (IR) and its code generator framework, that (a) represents the key properties of the RGNN models to bridge the gap between the programming interface and kernel APIs, (b) decouples model semantics, data layout, and operators-specific optimization from each other to reduce programming efforts, (c) expresses and leverages optimization opportunities in inter-operator transforms, data layout, and operator-specific schedules. By building on one general matrix multiply (GEMM) template and a node/edge traversal template, Pigeon achieves up to 7.8x speed-up in inference and 5.6x speed-up in training compared with the state-of-the-art public systems in select models, i.e., RGCN, RGAT, HGT, when running heterogeneous graphs provided by Deep Graph Library (DGL) and Open Graph Benchmark (OGB). Pigeon also triggers fewer out-of-memory (OOM) errors. In addition, we propose linear operator fusion and compact materialization to further accelerate the system by up to 2.2x.
翻訳日:2023-01-18 16:27:19 公開日:2023-01-16
# dpe:一般ビデオ・ポートレート編集におけるポーズと表情の絡み合い

DPE: Disentanglement of Pose and Expression for General Video Portrait Editing ( http://arxiv.org/abs/2301.06281v1 )

ライセンス: Link先を確認
Youxin Pang, Yong Zhang, Weize Quan, Yanbo Fan, Xiaodong Cun, Ying Shan, Dong-ming Yan(参考訳) ワンショット映像駆動音声生成は、映像から任意の肖像画に顔の動きを移すことにより合成音声映像を作成することを目的としている。 頭ポーズと表情は常に顔の動きに絡まっており、同時に移動している。 しかし、この絡み合いは、これらの手法が直接ビデオのポートレート編集に使用されるための障壁を設定し、ポーズを変更せずに表現を変更する必要がある。 ポーズと表現を分離する1つの課題は、同じポーズだが異なる表現のようなペアデータの欠如である。 3D Morphable Models (3DMMs) の成果によって、この課題に対処しようとする方法はごくわずかである。 しかし、3dmmは、ブレイン形状が限られており、動きの伝達に副作用があるため、顔の詳細を捉えるのに十分な精度はない。 本稿では,3dmmを使わずにポーズと表情を分離し,モーション編集モジュール,ポーズ生成器,表情生成器からなるペアデータを生成するための,新しい自己教師付きディスタングルフレームワークを提案する。 編集モジュールは、ポーズ動作及び表現動作が切り離され得る潜伏空間に面を投影し、追加により潜伏空間においてポーズ又は表現伝達を都合よく行うことができる。 2つのジェネレータはそれぞれ修正された潜伏符号を画像に描画する。 さらに, 絡み合うことを保証するため, 設計制約を十分に満たした双方向巡回訓練戦略を提案する。 評価は,ポーズや表情を独立に制御し,一般的な映像編集に使用できることを示す。

One-shot video-driven talking face generation aims at producing a synthetic talking video by transferring the facial motion from a video to an arbitrary portrait image. Head pose and facial expression are always entangled in facial motion and transferred simultaneously. However, the entanglement sets up a barrier for these methods to be used in video portrait editing directly, where it may require to modify the expression only while maintaining the pose unchanged. One challenge of decoupling pose and expression is the lack of paired data, such as the same pose but different expressions. Only a few methods attempt to tackle this challenge with the feat of 3D Morphable Models (3DMMs) for explicit disentanglement. But 3DMMs are not accurate enough to capture facial details due to the limited number of Blenshapes, which has side effects on motion transfer. In this paper, we introduce a novel self-supervised disentanglement framework to decouple pose and expression without 3DMMs and paired data, which consists of a motion editing module, a pose generator, and an expression generator. The editing module projects faces into a latent space where pose motion and expression motion can be disentangled, and the pose or expression transfer can be performed in the latent space conveniently via addition. The two generators render the modified latent codes to images, respectively. Moreover, to guarantee the disentanglement, we propose a bidirectional cyclic training strategy with well-designed constraints. Evaluations demonstrate our method can control pose or expression independently and be used for general video editing.
翻訳日:2023-01-18 16:26:43 公開日:2023-01-16
# 疎LDA変換話者埋め込みによるターゲット話者抽出の改善

Improving Target Speaker Extraction with Sparse LDA-transformed Speaker Embeddings ( http://arxiv.org/abs/2301.06277v1 )

ライセンス: Link先を確認
Kai Liu, Xucheng Wan, Ziqing Du and Huan Zhou(参考訳) 音声分離の実践的な代替手段として、ターゲット話者抽出(TSE)は、話者から抽出した追加話者キューを用いて、所望の話者から音声を抽出することを目的としている。 その主な課題は、話者の手がかりを適切に抽出し活用し、抽出された音声品質を生かす方法である。 既存のほとんどのTSE研究で採用されているキュー抽出法は,事前学習した話者検証モデルから抽出した識別話者埋め込みを直接利用することである。 高い話者識別性は話者検証タスクにおいて最も望ましい特性であるが、TSEには高度すぎるかもしれないと論じる。 本研究では,クラス分離性を明確にした簡易な話者キューがTSEに好適であることを示す。 提案手法を検証するため, 疎LDA変換から生成した話者埋め込み(x-vectorやxi-vectorなど)や新しい話者埋め込みなど, 複数種類の話者手がかりを導入する。 対応するtseモデルは、これらの話者キューとsepformer(soma音声分離モデル)を統合することで構築される。 これらのTSEモデルの性能をベンチマークWSJ0-2mixデータセットで検討した。 実験の結果,SI-SDRiでは9.9%の相対的な改善が見られた。 さらに, SI-SDRiの19.4dB, PESQの3.78では, 現在のSOTAシステムよりも優れた性能を示し, WSJ0-2mixで報告されたトップTSE結果を提供する。

As a practical alternative of speech separation, target speaker extraction (TSE) aims to extract the speech from the desired speaker using additional speaker cue extracted from the speaker. Its main challenge lies in how to properly extract and leverage the speaker cue to benefit the extracted speech quality. The cue extraction method adopted in majority existing TSE studies is to directly utilize discriminative speaker embedding, which is extracted from the pre-trained models for speaker verification. Although the high speaker discriminability is a most desirable property for speaker verification task, we argue that it may be too sophisticated for TSE. In this study, we propose that a simplified speaker cue with clear class separability might be preferred for TSE. To verify our proposal, we introduce several forms of speaker cues, including naive speaker embedding (such as, x-vector and xi-vector) and new speaker embeddings produced from sparse LDA-transform. Corresponding TSE models are built by integrating these speaker cues with SepFormer (one SOTA speech separation model). Performances of these TSE models are examined on the benchmark WSJ0-2mix dataset. Experimental results validate the effectiveness and generalizability of our proposal, showing up to 9.9% relative improvement in SI-SDRi. Moreover, with SI-SDRi of 19.4 dB and PESQ of 3.78, our best TSE system significantly outperforms the current SOTA systems and offers the top TSE results reported till date on the WSJ0-2mix.
翻訳日:2023-01-18 16:26:17 公開日:2023-01-16
# 政策勾配最適化におけるベースラインの役割

The Role of Baselines in Policy Gradient Optimization ( http://arxiv.org/abs/2301.06276v1 )

ライセンス: Link先を確認
Jincheng Mei and Wesley Chung and Valentin Thomas and Bo Dai and Csaba Szepesvari and Dale Schuurmans(参考訳) オン・ポリシィ・確率的政策勾配最適化におけるベースラインの効果を考察し、政策最適化法の理論と実践のギャップを閉じる。 最初のコントリビューションは、 \emph{state value} ベースラインによって、オン・ポリティクスの確率的 \emph{natural} ポリシー勾配 (npg) が、以前知られていない$o(1/t)$レートでグローバルに最適なポリシーに収束できることを示すことです。 この分析は、2つの新しい発見に依存している: NPG 更新の予想された進歩は、非一様 \L{}ojasiewicz (N\L{})の不等式を確率1で満たし、状態値基底線は最適作用の確率が消えるのを防ぎ、十分な探索を保証する。 これらの結果は, 確率的政策勾配におけるベースラインの役割について, 新たな理解を与えている。 自然政策勾配推定のばらつきがベースラインの有無と無関係であることを示すことにより, 分散還元は, この設定においてその有用性を説明できることがわかった。 その代わり、分析によって、値のベースラインの主な効果は、その分散ではなく、 \textbf{reduce the aggressiveness of the updates}であることが明らかになった。 すなわち、確率的NPGのほぼ確実に収束するために有限分散が \emph{not required} であることを示し、更新攻撃性を制御することは必要かつ十分である。 さらなる実験結果は、これらの理論的な結果を検証する。

We study the effect of baselines in on-policy stochastic policy gradient optimization, and close the gap between the theory and practice of policy optimization methods. Our first contribution is to show that the \emph{state value} baseline allows on-policy stochastic \emph{natural} policy gradient (NPG) to converge to a globally optimal policy at an $O(1/t)$ rate, which was not previously known. The analysis relies on two novel findings: the expected progress of the NPG update satisfies a stochastic version of the non-uniform \L{}ojasiewicz (N\L{}) inequality, and with probability 1 the state value baseline prevents the optimal action's probability from vanishing, thus ensuring sufficient exploration. Importantly, these results provide a new understanding of the role of baselines in stochastic policy gradient: by showing that the variance of natural policy gradient estimates remains unbounded with or without a baseline, we find that variance reduction \emph{cannot} explain their utility in this setting. Instead, the analysis reveals that the primary effect of the value baseline is to \textbf{reduce the aggressiveness of the updates} rather than their variance. That is, we demonstrate that a finite variance is \emph{not necessary} for almost sure convergence of stochastic NPG, while controlling update aggressiveness is both necessary and sufficient. Additional experimental results verify these theoretical findings.
翻訳日:2023-01-18 16:25:48 公開日:2023-01-16
# ニュースタイトルにおける超党派の計算的評価

Computational Assessment of Hyperpartisanship in News Titles ( http://arxiv.org/abs/2301.06270v1 )

ライセンス: Link先を確認
Hanjia Lyu, Jinsheng Pan, Zichen Wang, Jiebo Luo(参考訳) 私たちはまず,2014年から現在まで,メディアバイアスグループである左,中央,右の3つの代表的なメディア組織によって,2014年から現在まで投稿された2200の手動ラベル付きおよび180万のマシンラベル付きタイトルを含む,超党派ニュースタイトル検出のための新たなデータセットを開発するために,ヒューマンガイド付き機械学習フレームワークを採用しました。 微調整変換器ベース言語モデルでは、全体的な精度は0.84、F1スコアは0.78となる。 次に、ニュースタイトルにおけるパルチザンシップの程度とダイナミクスを定量化する計算分析を行う。 期待したとおりの側面もあるが、本研究では3つのメディアグループ間の新しい、あるいは微妙な違いを明らかにする。 全体的に右派メディアは比例して超党派的なタイトルを使う傾向にある。 ほぼ2016年の大統領選挙前後で、左派メディアの超党派的タイトルの割合が相対的に増加したすべてのメディアバイアスグループにおいて、超党派的タイトルの割合が増加した。 我々は、対外問題、政治システム、社会問題を含む3つの主要なトピックを特定し、ロジスティック回帰モデルとシャプリー値を用いて、ニュースタイトルの超党派性を示唆する。 話題分布の分析を通じて,社会的な課題が徐々にすべてのメディアグループから注目されるようになっていった。 さらに,各話題の題名に語彙に基づく言語分析ツールを適用し,これら3つのメディアグループの任意の対間の言語距離を定量化する。 3つの異なるパターンが発見されている。 左派メディアは、外国問題の観点から、中央派と右派とが言語的に異なる。 3つのメディアグループ間の言語的距離は近年小さくなっている。 また,社会問題においては,言語的差異が選挙と関連する季節パターンが観察される。

We first adopt a human-guided machine learning framework to develop a new dataset for hyperpartisan news title detection with 2,200 manually labeled and 1.8 million machine-labeled titles that were posted from 2014 to the present by nine representative media organizations across three media bias groups - Left, Central, and Right in an active learning manner. The fine-tuned transformer-based language model achieves an overall accuracy of 0.84 and an F1 score of 0.78 on an external validation set. Next, we conduct a computational analysis to quantify the extent and dynamics of partisanship in news titles. While some aspects are as expected, our study reveals new or nuanced differences between the three media groups. We find that overall the Right media tends to use proportionally more hyperpartisan titles. Roughly around the 2016 Presidential Election, the proportions of hyperpartisan titles increased in all media bias groups where the relative increase in the proportion of hyperpartisan titles of the Left media was the most. We identify three major topics including foreign issues, political systems, and societal issues that are suggestive of hyperpartisanship in news titles using logistic regression models and the Shapley values. Through an analysis of the topic distribution, we find that societal issues gradually receive more attention from all media groups. We further apply a lexicon-based language analysis tool to the titles of each topic and quantify the linguistic distance between any pairs of the three media groups. Three distinct patterns are discovered. The Left media is linguistically more different from Central and Right in terms of foreign issues. The linguistic distance between the three media groups becomes smaller over recent years. In addition, a seasonal pattern where linguistic difference is associated with elections is observed for societal issues.
翻訳日:2023-01-18 16:25:05 公開日:2023-01-16
# 深層学習モデルによる人間の脳における文理解の研究

Deep Learning Models to Study Sentence Comprehension in the Human Brain ( http://arxiv.org/abs/2301.06340v1 )

ライセンス: Link先を確認
Sophie Arana, Jacques Pesnot Lerousseau and Peter Hagoort(参考訳) 自然言語を処理する最近の人工ニューラルネットワークは、文レベルの理解を必要とするタスクにおいて前例のないパフォーマンスを達成する。 そのため、人間の脳における言語情報の統合の興味深いモデルになり得る。 我々は、これらの人工言語モデルと人間の脳活動を比較する研究をレビューし、このアプローチが自然言語理解に関わる神経過程の理解をいかに改善したかを評価する。 主な結果は2つある。 まず、単語の意味のニューラル表現は、ニューラルネットワークが使用する文脈依存で密集した単語ベクトルと整合する。 第2に、人工ニューラルネットワーク内で現れる処理階層は、脳と広く一致しているが、研究全体で驚くほど矛盾している。 自然言語理解のプロセスモデルとして,ニューラルネットワークを確立する上での課題について論じる。 ニューラルネットワークの表現を脳データにマッピングする際に,高度に構造化された表現幾何学を利用する方法を提案する。

Recent artificial neural networks that process natural language achieve unprecedented performance in tasks requiring sentence-level understanding. As such, they could be interesting models of the integration of linguistic information in the human brain. We review works that compare these artificial language models with human brain activity and we assess the extent to which this approach has improved our understanding of the neural processes involved in natural language comprehension. Two main results emerge. First, the neural representation of word meaning aligns with the context-dependent, dense word vectors used by the artificial neural networks. Second, the processing hierarchy that emerges within artificial neural networks broadly matches the brain, but is surprisingly inconsistent across studies. We discuss current challenges in establishing artificial neural networks as process models of natural language comprehension. We suggest exploiting the highly structured representational geometry of artificial neural networks when mapping representations to brain data.
翻訳日:2023-01-18 16:18:44 公開日:2023-01-16
# カーネルSum-Of-Squareによる制約付き最適化問題の近似

Approximation of optimization problems with constraints through kernel Sum-Of-Squares ( http://arxiv.org/abs/2301.06339v1 )

ライセンス: Link先を確認
Pierre-Cyril Aubin-Frankowski and Alessandro Rudi(参考訳) 無限次元空間における無限個の不等式制約を扱うことは、大域的最適化から最適輸送まで多くの分野において起こる。 これらの問題は、カーネル Sum-Of-Squares (kSoS) 近似を通じて、いくつかの以前の記事で個別に解決されている。 ここでは、これらのスキームに対する収束保証を証明する統一定理を提案する。 不等式は非負の kSoS 函数の類と等式となる。 これにより、問題に現れる関数の仮定された滑らかさを生かして、制約をサンプリングする際の次元の呪いを緩和するために散乱不等式を用いることができる。 このアプローチは、辺情報を持つ学習ベクトル場において、集合の不変性として示される。

Handling an infinite number of inequality constraints in infinite-dimensional spaces occurs in many fields, from global optimization to optimal transport. These problems have been tackled individually in several previous articles through kernel Sum-Of-Squares (kSoS) approximations. We propose here a unified theorem to prove convergence guarantees for these schemes. Inequalities are turned into equalities to a class of nonnegative kSoS functions. This enables the use of scattering inequalities to mitigate the curse of dimensionality in sampling the constraints, leveraging the assumed smoothness of the functions appearing in the problem. This approach is illustrated in learning vector fields with side information, here the invariance of a set.
翻訳日:2023-01-18 16:18:32 公開日:2023-01-16
# 分子タンパク質結合親和性予測を改善するハイブリッド量子古典畳み込みニューラルネットワーク

Hybrid quantum-classical convolutional neural networks to improve molecular protein binding affinity predictions ( http://arxiv.org/abs/2301.06331v1 )

ライセンス: Link先を確認
L. Domingo and M. Djukic and C. Johnson and F. Borondo(参考訳) 薬物発見の主な課題の1つは、標的タンパク質に特異的に強く結合し、他のタンパク質に最小限に結合する分子を見つけることである。 結合親和性を予測することにより、潜在的な化合物の大きなプールから最も有望な候補を特定でき、実験で試される化合物の数を減らすことができる。 近年,大規模データセットで正確な予測を行うために,従来の計算手法よりも精度が向上している。 しかしながら、これらの方法の複雑さと時間を要する性質は、その使用と開発を制限している。 量子機械学習は多くの古典的な機械学習アルゴリズムを改善する可能性を秘めている。 本研究では,従来のネットワークの複雑性を20倍に低減し,予測における最適性能を維持したハイブリッド量子古典畳み込みニューラルネットワークを提案する。 さらに、トレーニングプロセスにおいて最大40%の大幅な時間節約が達成され、薬物発見プロセスの有意義なスピードアップが実現した。

One of the main challenges in drug discovery is to find molecules that bind specifically and strongly to their target protein while having minimal binding to other proteins. By predicting binding affinity, it is possible to identify the most promising candidates from a large pool of potential compounds, reducing the number of compounds that need to be tested experimentally. Recently, deep learning methods have shown superior performance than traditional computational methods for making accurate predictions on large datasets. However, the complexity and time-consuming nature of these methods have limited their usage and development. Quantum machine learning is an emerging technology that has the potential to improve many classical machine learning algorithms. In this work we present a hybrid quantum-classical convolutional neural network, which is able to reduce by 20\% the complexity of the classical network while maintaining optimal performance in the predictions. Additionally, it results in a significant time savings of up to 40\% in the training process, which means a meaningful speed up of the drug discovery process.
翻訳日:2023-01-18 16:18:20 公開日:2023-01-16
# ヒルベルトの第6問題を考慮した等価原理の量子テストの科学的価値

Scientific value of the quantum tests of equivalence principle in light of Hilbert's sixth problem ( http://arxiv.org/abs/2301.06327v1 )

ライセンス: Link先を確認
Abhishek Majhi and Gopal Sardar(参考訳) 6つ目の問題としてヒルベルトは、物理学の論理学と言語(セマンティックス)が中心的な役割を果たす科学的推論において精度と厳密性を達成するために、理論物理学への公理的アプローチを求めた。 このような観点から, 等価原理の量子実験を行うための現代実験の科学的価値について検討する。 プランク定数の決定には、地球の重力による加速度の使用(g)$が伴い、それが試験質量の力となる。 実験対象の慣性質量と重力質量の等価性は、関連する物理学の仮説からg$を論理的に定義する過程において仮定される。 したがって、プランク定数が慣性質量と重力質量の等価性をテストするために設計された実験(またはそのような実験を発見した関連する理論)の入力として使われるならば、暗黙的にそれを仮定することで科学的真理を確立することに等価である。 等価原理の量子テストを行うと主張する現在の科学研究のフロンティアを悩ませる注目すべき例がいくつかある。 このような実験の科学的価値をヒルベルトの公理的観点から疑問視する。 この研究は、最近報告された「量子」と「重力」をまとめようとする公理論的試みにおける意味障害を、実験的な色合いとともに加えている。

In his sixth problem, Hilbert called for an axiomatic approach to theoretical physics with an aim to achieve precision and rigour in scientific reasoning, where logic and language (semantics) of physics play the pivotal role. It is from such a point of view, we investigate the scientific value of the modern experiments to perform quantum tests of equivalence principle. Determination of Planck constant involves the use of acceleration due to gravity of the earth $(g)$ that results in the force on a test mass. The equivalence between inertial mass and gravitational mass of a test object is assumed in the process of logically defining $g$ from the relevant hypotheses of physics. Consequently, if Planck constant is used as input in any experiment (or in the associated theory that founds such an experiment) that is designed to test the equivalence between inertial and gravitational mass, then it is equivalent to establish a scientific truth by implicitly assuming it i.e. a tautology. There are several notable examples which plague the frontiers of current scientific research which claim to make quantum test of equivalence principle. We question the scientific value of such experiments from Hilbert's axiomatic point of view. This work adds to the recently reported semantic obstacle in any axiomatic attempt to put "quantum" and "gravity" together, albeit with an experimental tint.
翻訳日:2023-01-18 16:18:05 公開日:2023-01-16
# Img2Tab: 説明可能な画像分類のためのStyleGAN機能からのクラス関連概念の自動発見

Img2Tab: Automatic Class Relevant Concept Discovery from StyleGAN Features for Explainable Image Classification ( http://arxiv.org/abs/2301.06324v1 )

ライセンス: Link先を確認
Youngjae Song, Sung Kuk Shyn, Kwang-su Kim(参考訳) 従来の表式分類器は、解釈可能な特徴(概念)で説明可能な意思決定を提供する。 しかし,画像の画素表現により,視覚タスクにおける説明性は制限されている。 本稿では,図形分類器の説明可能性を活用するために,概念によって画像の分類を行うImg2Tabsを設計する。 Img2TabsはStyleGANの逆変換によって画像ピクセルを表にエンコードする。 結果として得られる全ての機能は、その生成的性質のためにクラス関連または解釈可能であるわけではないので、img2tab分類器は、スタイルガン機能からクラス関連概念を自動的に発見することを期待する。 そこで我々は,クラス関連性と解釈可能性を同時に定量化するために,Wasserstein-1 計量を用いた新しい手法を提案する。 本手法を用いて,表型分類器によって抽出される重要な特徴がクラス関連概念であるか否かを検討する。 その結果、スタイルガンの特徴からクラス関連概念を自動的に発見するという点で、img2tabsの最も効果的な分類器を決定する。 評価では、重要度と可視化による概念に基づく説明を示す。 Img2Tabは、CNN分類器と深い特徴学習ベースラインと同等のトップ1の精度を達成する。 さらに, img2tab分類器を概念レベルで容易にデバッグでき, 精度を犠牲にすることなく, 公平かつ公平な意思決定を行えることを示す。

Traditional tabular classifiers provide explainable decision-making with interpretable features(concepts). However, using their explainability in vision tasks has been limited due to the pixel representation of images. In this paper, we design Img2Tabs that classify images by concepts to harness the explainability of tabular classifiers. Img2Tabs encode image pixels into tabular features by StyleGAN inversion. Since not all of the resulting features are class-relevant or interpretable due to their generative nature, we expect Img2Tab classifiers to discover class-relevant concepts automatically from the StyleGAN features. Thus, we propose a novel method using the Wasserstein-1 metric to quantify class-relevancy and interpretability simultaneously. Using this method, we investigate whether important features extracted by tabular classifiers are class-relevant concepts. Consequently, we determine the most effective classifier for Img2Tabs in terms of discovering class-relevant concepts automatically from StyleGAN features. In evaluations, we demonstrate concept-based explanations through importance and visualization. Img2Tab achieves top-1 accuracy that is on par with CNN classifiers and deep feature learning baselines. Additionally, we show that users can easily debug Img2Tab classifiers at the concept level to ensure unbiased and fair decision-making without sacrificing accuracy.
翻訳日:2023-01-18 16:17:40 公開日:2023-01-16
# 中国語スペル誤り訂正のための誤りガイド補正モデル

An Error-Guided Correction Model for Chinese Spelling Error Correction ( http://arxiv.org/abs/2301.06323v1 )

ライセンス: Link先を確認
Rui Sun, Xiuyu Wu, Yunfang Wu(参考訳) 既存のニューラルネットワークアプローチは中国語の綴りの訂正で大きな成功を収めているが、改善の余地はまだ残っている。 このモデルは、過度な補正を避け、正しいトークンを音韻学的および視覚的に類似したトークンと区別する必要がある。 本稿では,中国語のスペル訂正を改善するための誤り誘導補正モデル(EGCM)を提案する。 BERTの強力な能力を借りて、予備検出を行う新たなゼロショット誤り検出手法を提案する。 さらに,誤差混乱セットを統合した新しい損失関数を導入することで,容易に誤用されたトークンを識別することができる。 さらに,本モデルは実際のアプリケーション要件を満たすために,並列デコーディングをサポートする。 広く使われているベンチマークで実験が行われる。 本モデルは, 補正品質と計算速度の両方において, 最先端手法に対する優れた性能を実現する。

Although existing neural network approaches have achieved great success on Chinese spelling correction, there is still room to improve. The model is required to avoid over-correction and to distinguish a correct token from its phonological and visually similar ones. In this paper, we propose an error-guided correction model (EGCM) to improve Chinese spelling correction. By borrowing the powerful ability of BERT, we propose a novel zero-shot error detection method to do a preliminary detection, which guides our model to attend more on the probably wrong tokens in encoding and to avoid modifying the correct tokens in generating. Furthermore, we introduce a new loss function to integrate the error confusion set, which enables our model to distinguish easily misused tokens. Moreover, our model supports highly parallel decoding to meet real application requirements. Experiments are conducted on widely used benchmarks. Our model achieves superior performance against state-of-the-art approaches by a remarkable margin, on both the correction quality and computation speed.
翻訳日:2023-01-18 16:17:18 公開日:2023-01-16
# UATVR:不確実性対応のテキストビデオ検索

UATVR: Uncertainty-Adaptive Text-Video Retrieval ( http://arxiv.org/abs/2301.06309v1 )

ライセンス: Link先を確認
Bo Fang, Wenhao wu, Chang Liu, Yu Zhou, Min Yang, Yuxin Song, Fu Li, Weiping Wang, Xiangyang Ji, Wanli Ouyang(参考訳) ウェブビデオの爆発的な成長とCLIPなどの大規模視覚言語事前学習モデルにより、テキスト命令による興味あるビデオの検索が注目されている。 一般的な実践は、テキストとビデオのペアを同じ埋め込み空間に転送し、意味的対応のための特定の粒度の特定のエンティティとの相互の相互作用を構築することである。 残念なことに、クロスモーダルクエリの適切な粒度における最適なエンティティの組み合わせの固有の不確実性は未熟であり、特に階層的意味論(例えばビデオ、テキストなど)を持つモダリティにとって重要である。 本稿では,各ルックアップを分散マッチング手順としてモデル化する,不確実性対応型テキストビデオ検索手法であるuatvrを提案する。 具体的には、エンコーダに学習可能なトークンを追加し、フレキシブルな高レベル推論のための多粒度セマンティクスを適応的に集約する。 埋め込み空間では,テキストとビデオのペアを確率分布として表現し,プロトタイプを標本化してマッチング評価を行う。 MSR-VTT(50.8%)、VATEX(64.5%)、MSVD(49.7%)、DiDeMo(45.8%)の4つのベンチマークによる総合的な実験は、我々のUATVRの優位性を正当化している。 コードは補足資料で入手でき、まもなく公開される予定だ。

With the explosive growth of web videos and emerging large-scale vision-language pre-training models, e.g., CLIP, retrieving videos of interest with text instructions has attracted increasing attention. A common practice is to transfer text-video pairs to the same embedding space and craft cross-modal interactions with certain entities in specific granularities for semantic correspondence. Unfortunately, the intrinsic uncertainties of optimal entity combinations in appropriate granularities for cross-modal queries are understudied, which is especially critical for modalities with hierarchical semantics, e.g., video, text, etc. In this paper, we propose an Uncertainty-Adaptive Text-Video Retrieval approach, termed UATVR, which models each look-up as a distribution matching procedure. Concretely, we add additional learnable tokens in the encoders to adaptively aggregate multi-grained semantics for flexible high-level reasoning. In the refined embedding space, we represent text-video pairs as probabilistic distributions where prototypes are sampled for matching evaluation. Comprehensive experiments on four benchmarks justify the superiority of our UATVR, which achieves new state-of-the-art results on MSR-VTT (50.8%), VATEX (64.5%), MSVD (49.7%), and DiDeMo (45.8%). The code is available in supplementary materials and will be released publicly soon.
翻訳日:2023-01-18 16:17:02 公開日:2023-01-16
# シャープネス認識最小化の安定性解析

Stability Analysis of Sharpness-Aware Minimization ( http://arxiv.org/abs/2301.06308v1 )

ライセンス: Link先を確認
Hoki Kim, Jinseong Park, Yujin Choi, and Jaewook Lee(参考訳) シャープネスを意識した最小化(SAM)は、ディープラーニングにおいてフラットな最小化を求める、最近提案された訓練手法である。 SAMは現在の重みの損失を最小限に抑える代わりに、パラメータ空間におけるその近傍の最悪の損失を最小限に抑える。 本稿では,SAM力学がサドル点付近で発生する収束不安定性を有することを示す。 力学系の定性的理論を利用すると、SAMがサドル点に留まり、理論上、サドル点がSAM力学の下でアトラクションとなることを証明できる。 さらに, この収束不安定性は, SAMの拡散を確立することにより, 確率力学系でも起こりうることを示す。 SAM拡散はサドル点脱出の点でバニラ勾配降下よりも悪いことが証明された。 さらに,収束不安定を緩和し,高い一般化性能を達成するためには,しばしば見過ごされる練習技である運動量やバッチサイズが重要であることを示す。 理論的および実証的な結果は、よく知られた最適化問題とベンチマークタスクの実験を通じて徹底的に検証される。

Sharpness-aware minimization (SAM) is a recently proposed training method that seeks to find flat minima in deep learning, resulting in state-of-the-art performance across various domains. Instead of minimizing the loss of the current weights, SAM minimizes the worst-case loss in its neighborhood in the parameter space. In this paper, we demonstrate that SAM dynamics can have convergence instability that occurs near a saddle point. Utilizing the qualitative theory of dynamical systems, we explain how SAM becomes stuck in the saddle point and then theoretically prove that the saddle point can become an attractor under SAM dynamics. Additionally, we show that this convergence instability can also occur in stochastic dynamical systems by establishing the diffusion of SAM. We prove that SAM diffusion is worse than that of vanilla gradient descent in terms of saddle point escape. Further, we demonstrate that often overlooked training tricks, momentum and batch-size, are important to mitigate the convergence instability and achieve high generalization performance. Our theoretical and empirical results are thoroughly verified through experiments on several well-known optimization problems and benchmark tasks.
翻訳日:2023-01-18 16:16:38 公開日:2023-01-16
# 最適精度をもつ確率的ユニタリ合成

Probabilistic unitary synthesis with optimal accuracy ( http://arxiv.org/abs/2301.06307v1 )

ライセンス: Link先を確認
Seiseki Akibue, Go Kato, Seiichiro Tani(参考訳) ユニタリ合成の目的は、ターゲットユニタリ変換を最適に近似するゲート列を見つけることである。 確率論的合成と呼ばれる新しい合成手法が導入され、近似誤差やゲート長に関して従来の決定論的アプローチよりも優位性が確認されている。 しかし、現在の確率的合成アルゴリズムの最適性は不明である。 最適確率合成により得られた近似誤差の厳密な下界を求め,現在のアルゴリズムの最適性を保証する。 また,その強固な上界を示し,目標ユニタリのクラスに応じて現在の上界を改良・統一する。 これら2つの境界は、確率近似とユニタリ変換の決定論的近似の近似誤差の基本的な関係を明らかにする。 計算の観点からは,我々が構築した半定値プログラム (sdp) によって最適確率分布を計算できることを示す。 また,単量子ユニタリに対する効率的な確率的合成アルゴリズムを構築し,その時間複雑性を厳密に推定し,決定論的アルゴリズムと比較して近似誤差を2乗的に低減することを示した。

The purpose of unitary synthesis is to find a gate sequence that optimally approximates a target unitary transformation. A new synthesis approach, called probabilistic synthesis, has been introduced, and its superiority has been demonstrated over traditional deterministic approaches with respect to approximation error and gate length. However, the optimality of current probabilistic synthesis algorithms is unknown. We obtain the tight lower bound on the approximation error obtained by the optimal probabilistic synthesis, which guarantees the sub-optimality of current algorithms. We also show its tight upper bound, which improves and unifies current upper bounds depending on the class of target unitaries. These two bounds reveal the fundamental relationship of approximation error between probabilistic approximation and deterministic approximation of unitary transformations. From a computational point of view, we show that the optimal probability distribution can be computed by the semidefinite program (SDP) we construct. We also construct an efficient probabilistic synthesis algorithm for single-qubit unitaries, rigorously estimate its time complexity, and show that it reduces the approximation error quadratically compared with deterministic algorithms.
翻訳日:2023-01-18 16:16:21 公開日:2023-01-16
# LYSTO: リンパ球アセスメントハッカソンとベンチマークデータセット

LYSTO: The Lymphocyte Assessment Hackathon and Benchmark Dataset ( http://arxiv.org/abs/2301.06304v1 )

ライセンス: Link先を確認
Yiping Jiao, Jeroen van der Laak, Shadi Albarqouni, Zhang Li, Tao Tan, Abhir Bhalerao, Jiabo Ma, Jiamei Sun, Johnathon Pocock, Josien P.W. Pluim, Navid Alemi Koohbanani, Raja Muhammad Saad Bashir, Shan E Ahmed Raza, Sibo Liu, Simon Graham, Suzanne Wetstein, Syed Ali Khurram, Thomas Watson, Nasir Rajpoot, Mitko Veta, Francesco Ciompi(参考訳) シェンゼンで開催されたMICCAI 2019 Conferenceと共同で開催したLYSTO, Lymphocyte Assessment Hackathonを紹介する。 このコンペでは、cd3およびcd8免疫組織化学で染色された大腸癌、乳がん、前立腺の病理組織像において、リンパ球、特にt細胞数を自動的に評価する必要があった。 医療画像解析における他の課題とは異なり、LYSTOの参加者はこの問題に対処するために数時間しか与えられなかった。 本稿では,ハッカソンの目的と多段階の組織について述べ,提案手法と現場結果について述べる。 また, 本研究は, 肺がんスライドの独立群において, 初期競合に含まれない手法がどのように機能するか, ならびに, 提示方法と病理組織学的パネルとのリンパ球アセスメントの比較を行った後, 比較検討結果を示す。 リンパ球評価において病理学レベルを達成できた参加者もいた。 ハッカソンの後、LYSTOは軽量なプラグイン・アンド・プレイベンチマークデータセットとして、自動評価プラットフォームとともにグランドチャレンゲのウェブサイトに残された。 LYSTOは、腫瘍学におけるリンパ球評価に関する多くの研究を支持している。 lystoはディープラーニングとデジタル病理学の長年にわたる教育課題であり、https://lysto.grand-challenge.org/で入手できる。

We introduce LYSTO, the Lymphocyte Assessment Hackathon, which was held in conjunction with the MICCAI 2019 Conference in Shenzen (China). The competition required participants to automatically assess the number of lymphocytes, in particular T-cells, in histopathological images of colon, breast, and prostate cancer stained with CD3 and CD8 immunohistochemistry. Differently from other challenges setup in medical image analysis, LYSTO participants were solely given a few hours to address this problem. In this paper, we describe the goal and the multi-phase organization of the hackathon; we describe the proposed methods and the on-site results. Additionally, we present post-competition results where we show how the presented methods perform on an independent set of lung cancer slides, which was not part of the initial competition, as well as a comparison on lymphocyte assessment between presented methods and a panel of pathologists. We show that some of the participants were capable to achieve pathologist-level performance at lymphocyte assessment. After the hackathon, LYSTO was left as a lightweight plug-and-play benchmark dataset on grand-challenge website, together with an automatic evaluation platform. LYSTO has supported a number of research in lymphocyte assessment in oncology. LYSTO will be a long-lasting educational challenge for deep learning and digital pathology, it is available at https://lysto.grand-challenge.org/.
翻訳日:2023-01-18 16:16:05 公開日:2023-01-16
# 分子の大規模シミュレーションのための量子回路行列積状態ansatz

Quantum circuit matrix product state ansatz for large-scale simulations of molecules ( http://arxiv.org/abs/2301.06376v1 )

ライセンス: Link先を確認
Yi Fan, Jie Liu, Zhenyu Li and Jinlong Yang(参考訳) 密度行列再正規化群 (dmrg) 法と同様に、行列積状態 (mps) を用いた電子の多体波動関数の近似は電子構造問題を解決する有望な方法である。 MPSの表現性は、行列のサイズによって決定されるか、つまり結合次元によって決定される。 本研究では,量子回路MPS(QCMPS)を比較的少数の量子ビットで変動最適化することにより,分子系の基底状態エネルギーを計算することを提案する。 慎重に選択された回路構造と軌道位置決め方式により、QCMPSは指数的に大きな結合次元を持つDMRGと同様の精度に達することが示されている。 50の軌道を持つ線形分子のQCMPSシミュレーションは、中程度の回路深さでわずか6キュービットで化学精度に達することができる。 これらの結果から,QCMPSは分子系に対する変分量子固有解法アルゴリズムにおいて有望な波動関数アンサッツであることが示唆された。

As in the density matrix renormalization group (DMRG) method, approximating many-body wave function of electrons using a matrix product state (MPS) is a promising way to solve electronic structure problems. The expressibility of an MPS is determined by the size of the matrices or in other words the bond dimension, which unfortunately should be very large in many cases. In this study, we propose to calculate the ground state energies of molecular systems by variationally optimizing quantum circuit MPS (QCMPS) with a relatively small number of qubits. It is demonstrated that with carefully chosen circuit structure and orbital localization scheme, QCMPS can reach a similar accuracy as that achieved in DMRG with an exponentially large bond dimension. QCMPS simulation of a linear molecule with 50 orbitals can reach the chemical accuracy using only 6 qubits at a moderate circuit depth. These results suggest that QCMPS is a promising wave function ansatz in the variational quantum eigensolver algorithm for molecular systems.
翻訳日:2023-01-18 16:09:22 公開日:2023-01-16
# OLKAVS:韓国の大規模オーディオビジュアル音声データセット

OLKAVS: An Open Large-Scale Korean Audio-Visual Speech Dataset ( http://arxiv.org/abs/2301.06375v1 )

ライセンス: Link先を確認
Jeongkyun Park, Jung-Wook Hwang, Kwanghee Choi, Seung-Hyun Lee, Jun Hwan Ahn, Rae-Hong Park, Hyung-Min Park(参考訳) マルチモーダルな方法で人間の音声理解に触発され、様々な視聴覚データセットが構築されている。 しかし、既存のデータセットのほとんどは英語に重点を置いており、データセット準備中に様々な予測モデルへの依存性を誘導し、少数のマルチビュービデオしか持たない。 この制限を緩和するため,我々は最近,公に利用可能な視聴覚音声データセットの中で最大となる大規模韓国語音声-視覚音声(olkavs)データセットを開発した。 データセットには、韓国語話者1,107人による1,150時間の音声書き起こしが含まれている。 また,音声・視覚音声認識と唇読解という2つの課題に対する事前学習ベースラインモデルも提供する。 モデルに基づく実験を行い,マルチモーダルおよびマルチビュートレーニングが,単モーダルおよびフロントビューのみのトレーニングに対して有効であるか検証した。 OLKAVSデータセットは、韓国語音声認識、話者認識、発音レベル分類、口の動き分析など幅広い分野でのマルチモーダルな研究を促進することを期待する。

Inspired by humans comprehending speech in a multi-modal manner, various audio-visual datasets have been constructed. However, most existing datasets focus on English, induce dependencies with various prediction models during dataset preparation, and have only a small number of multi-view videos. To mitigate the limitations, we recently developed the Open Large-scale Korean Audio-Visual Speech (OLKAVS) dataset, which is the largest among publicly available audio-visual speech datasets. The dataset contains 1,150 hours of transcribed audio from 1,107 Korean speakers in a studio setup with nine different viewpoints and various noise situations. We also provide the pre-trained baseline models for two tasks, audio-visual speech recognition and lip reading. We conducted experiments based on the models to verify the effectiveness of multi-modal and multi-view training over uni-modal and frontal-view-only training. We expect the OLKAVS dataset to facilitate multi-modal research in broader areas such as Korean speech recognition, speaker recognition, pronunciation level classification, and mouth motion analysis.
翻訳日:2023-01-18 16:09:02 公開日:2023-01-16
# ワンショット視覚分類タスクの曖昧性:simplexに基づくアプローチ

Disambiguation of One-Shot Visual Classification Tasks: A Simplex-Based Approach ( http://arxiv.org/abs/2301.06372v1 )

ライセンス: Link先を確認
Yassir Bendou, Lucas Drumetz, Vincent Gripon, Giulia Lioi and Bastien Pasdeloup(参考訳) 視覚的な少数ショット分類の分野は、ディープラーニングビジュアルシステムの最先端のパフォーマンスを、限られた数のトレーニングサンプルしか利用できないタスクに移すことを目的としている。 主なソリューションは、考慮される少ないタスクに適用するために、大規模で多様なデータセットを使用して特徴抽出器をトレーニングすることである。 特徴抽出器の符号化された先行処理により、クラス毎に1つの例(または"shot'')の分類タスクを、クラスに代表されない個々の特徴を表示する場合でも、高精度に解決することができる。 しかし、与えられたショットの一部が複数のオブジェクトを表示すると、問題はさらに複雑になる。 本稿では,複数の未確認物体の存在を所定のショットで検出する戦略を提案する。 この方法論は、高次元空間における単純体のコーナーを特定することに基づいている。 本稿では、最適化ルーチンを導入し、生画像中の複数の(以前は見当たらなかった)オブジェクトをうまく検出する能力を示す。 次に,複数のオブジェクトの存在を利用して,クラスに対して1つのショットのみを付与する極端な設定の場合,少数ショット分類の性能を向上させる下流分類器を提案する。 フィールドの標準ベンチマークを用いて,提案手法がわずかながら統計的に有意な精度で精度を向上できることを示す。

The field of visual few-shot classification aims at transferring the state-of-the-art performance of deep learning visual systems onto tasks where only a very limited number of training samples are available. The main solution consists in training a feature extractor using a large and diverse dataset to be applied to the considered few-shot task. Thanks to the encoded priors in the feature extractors, classification tasks with as little as one example (or "shot'') for each class can be solved with high accuracy, even when the shots display individual features not representative of their classes. Yet, the problem becomes more complicated when some of the given shots display multiple objects. In this paper, we present a strategy which aims at detecting the presence of multiple and previously unseen objects in a given shot. This methodology is based on identifying the corners of a simplex in a high dimensional space. We introduce an optimization routine and showcase its ability to successfully detect multiple (previously unseen) objects in raw images. Then, we introduce a downstream classifier meant to exploit the presence of multiple objects to improve the performance of few-shot classification, in the case of extreme settings where only one shot is given for its class. Using standard benchmarks of the field, we show the ability of the proposed method to slightly, yet statistically significantly, improve accuracy in these settings.
翻訳日:2023-01-18 16:08:45 公開日:2023-01-16
# 合成カプセル内視鏡画像の多様性と有用性の評価

Evaluating clinical diversity and plausibility of synthetic capsule endoscopic images ( http://arxiv.org/abs/2301.06366v1 )

ライセンス: Link先を確認
Anuja Vats, Marius Pedersen, Ahmed Mohammed,{\O}istein Hovde(参考訳) WCE(Wireless Capsule Endoscopy)は、消化管の完全および非侵襲的スクリーニングのための代替画像モダリティとして、ますます利用されている。 これは不要な入院を減らす上で有利であるが、より大規模な人口を効果的にスクリーニングできるように、WCE診断プロトコルの実施も要求している。 これは、特にこのモダリティに合わせたトレーニングと教育のプロトコルを要求する。 従来の内視鏡、CT、MRIなどの他のモダリティのトレーニングと同様に、WCEトレーニングプロトコルは、ある期間にわたって理想的に観察される病理や異常の鮮明な記述を示す大量の画像からなるアトラスを必要とする。 このような包括的なアトラスは現在wceに欠けているため、本研究では、スタイルガンを用いた現実的なwceアトラスを作成するために、様々な機関で既に利用可能な研究を活用するための深層学習手法を提案する。 臨床に関連のある属性を同定し, 合成画像をcueに選択した属性で生成できるようにした。 さらに、いくつかの疾患進行シナリオをシミュレートする。 生成した画像は、3つの地理的な場所から8人の消化器科の専門家が参加し、様々な経験を積んだ3つの主観的なオンライン実験を通して現実性と妥当性を評価する。 実験の結果、画像は極めて現実的で、病気のシナリオは明らかであることがわかった。 atlasを構成するイメージは、トレーニングアプリケーションでの使用と、ディープラーニングのための実際のデータセットの補完のために公開されている。

Wireless Capsule Endoscopy (WCE) is being increasingly used as an alternative imaging modality for complete and non-invasive screening of the gastrointestinal tract. Although this is advantageous in reducing unnecessary hospital admissions, it also demands that a WCE diagnostic protocol be in place so larger populations can be effectively screened. This calls for training and education protocols attuned specifically to this modality. Like training in other modalities such as traditional endoscopy, CT, MRI, etc., a WCE training protocol would require an atlas comprising of a large corpora of images that show vivid descriptions of pathologies and abnormalities, ideally observed over a period of time. Since such comprehensive atlases are presently lacking in WCE, in this work, we propose a deep learning method for utilizing already available studies across different institutions for the creation of a realistic WCE atlas using StyleGAN. We identify clinically relevant attributes in WCE such that synthetic images can be generated with selected attributes on cue. Beyond this, we also simulate several disease progression scenarios. The generated images are evaluated for realism and plausibility through three subjective online experiments with the participation of eight gastroenterology experts from three geographical locations and a variety of years of experience. The results from the experiments indicate that the images are highly realistic and the disease scenarios plausible. The images comprising the atlas are available publicly for use in training applications as well as supplementing real datasets for deep learning.
翻訳日:2023-01-18 16:08:22 公開日:2023-01-16
# デコヒーレンスと紫外線遮断-磁場中における荷電粒子の非マルコフ動力学

Decoherence and the ultraviolet cutoff: non-Markovian dynamics of a charged particle in a magnetic field ( http://arxiv.org/abs/2301.06365v1 )

ライセンス: Link先を確認
Suraka Bhattacharjee, Koushik Mandal and Supurna Sinha(参考訳) 我々は,浴場に結合した磁場中の荷電粒子に対する非マルコフマスター方程式を導出し,還元密度行列の非対角要素の時間的減衰を位置基底で解析し,デコヒーレンスを研究する。 サイクロトロン周波数によって特徴付けられるコヒーレント振動は、環境との結合によるデコヒーレンスの結果、抑制される。 入浴時のスペクトル密度に対する高周波遮断モデルが3つあるオーミック浴について検討し, 比較検討を行った。 予想通り、3つのカットオフモデルは、無限遠傾向にある浴槽の最上部周波数の限界に収束する。 零点量子揺らぎに支配される低温限界におけるコヒーレンス損失の劇的な減少は, 温度揺らぎに支配される高温古典限界と比較して顕著である。 また、オーミックモデルを超えて、周波数に線形依存したスペクトル密度を持つ超オーミックおよびサブオーミック浴を研究する。 本研究の結果は, コールド原子実験室で確認可能である。

We derive a non-Markovian master equation for a charged particle in a magnetic field coupled to a bath and study decoherence by analysing the temporal decay of the off-diagonal elements of the reduced density matrix in the position basis. The coherent oscillations characterised by the cyclotron frequency get suppressed as a result of decoherence due to coupling with the environment. We consider an Ohmic bath with three distinct models for the high-frequency cutoff for the spectral density of the bath and compare the three cases. As expected, the three cutoff models converge in the limit of the uppermost frequency of the bath tending to infinity. We notice a dramatic slowing down of loss of coherence in the low-temperature limit dominated by zero point quantum fluctuations compared to the high-temperature classical limit dominated by thermal fluctuations. We also go beyond the Ohmic model and study super-Ohmic and sub-Ohmic baths with the spectral densities deviating from a linear dependence on the frequency. Our results are testable in a state of the art cold atom laboratory.
翻訳日:2023-01-18 16:07:58 公開日:2023-01-16
# 共振器品質係数測定のための円フィット最適化:最大精度のための点再分配

Circle fit optimization for resonator quality factor measurements: point redistribution for maximal accuracy ( http://arxiv.org/abs/2301.06364v1 )

ライセンス: Link先を確認
Paul G. Baity, Connor Maclean, Valentino Seferai, Joe Bronstein, Yi Shu, Tania Hemakumara, and Martin Weides(参考訳) 材料損失の制御は超伝導量子デバイスにおけるコヒーレンス時間を改善するためにますます重要な役割を担っている。 このような材料損失は、共鳴の質係数$Q_l$による損失を反映する平面超伝導共振器の測定によって特徴づけられる。 共振品質係数は、内部(材料)の損失と、共振光子が測定回路に逃避したときのカップリング損失の両方からなる。 組み合わせた損失は、$Q_l^{-1} = Q_c^{-1} + Q_i^{-1}$と記述され、$Q_c$と$Q_i$はそれぞれ共振器の結合係数と内部品質係数を反映する。 Q_i$ と $Q_c$ の相対寄与を$Q_l$ に分けるために、直径補正円は複素平面上の共鳴信号に代数的または幾何学的手段を用いる。 しかし、このような円は様々な結果が得られるため、この問題に対処するためにシミュレーションと実験を組み合わせることで、Q_i \ll Q_c$からQ_c \ll Q_i$までの幅広い品質係数値の適合アルゴリズムの信頼性を判定する。 さらに,$\gtrsim 2$の要因により適合誤差を低減できるだけでなく,測定背景が適合結果に与える影響を緩和できる新しい測定プロトコルを開発した。 この手法は超伝導共振器以外の共鳴系に対して一般化することができる。

The control of material loss mechansims is playing an increasingly important role for improving coherence times in superconducting quantum devices. Such material losses can be characterized through the measurement of planar superconducting resonators, which reflect losses through the resonance's quality factor $Q_l$. The resonance quality factor consists of both internal (material) losses as well as coupling losses when resonance photons escape back into the measurement circuit. The combined losses are then described as $Q_l^{-1} = Q_c^{-1} + Q_i^{-1}$, where $Q_c$ and $Q_i$ reflect the coupling and internal quality factors of the resonator, respectively. To separate the relative contributions of $Q_i$ and $Q_c$ to $Q_l$, diameter-correcting circle fits use algebraic or geometric means to fit the resonance signal on the complex plane. However, such circle fits can produce varied results, so to address this issue, we use a combination of simulation and experiment to determine the reliability of a fitting algorithm across a wide range of quality factor values from $Q_i \ll Q_c$ to $Q_c \ll Q_i$. In addition, we develop a novel measurement protocol that can not only reduce fitting errors by factors $\gtrsim 2$ but also mitigates the influence of the measurement background on the fit results. This technique can be generalized for other resonance systems beyond superconducting resonators.
翻訳日:2023-01-18 16:07:42 公開日:2023-01-16
# A$^2$-UAV:エッジ支援UAVシステムのアプリケーション対応コンテンツとネットワーク最適化

A$^2$-UAV: Application-Aware Content and Network Optimization of Edge-Assisted UAV Systems ( http://arxiv.org/abs/2301.06363v1 )

ライセンス: Link先を確認
Andrea Coletta, Flavio Giorgi, Gaia Maselli, Matteo Prata, Domenicomichele Silvestri, Jonathan Ashdown and Francesco Restuccia(参考訳) 先進的な監視を行うには、無人航空機(UAV)はエッジアシストコンピュータビジョン(CV)タスクの実行を必要とする。 マルチホップuavネットワークでは、帯域幅の制約が厳しいため、エッジへのタスクの転送が成功した。 そこで我々は,エッジで正しく実行されるタスク数を最適化する新しいA$^2$-UAVフレームワークを提案する。 既存の技術とは対照的に,我々はアプリケーション・アウェア・アプローチを取り入れ,新たな課題計画問題(A$^2$-TPP)を定式化する。 (i)利用可能なデータセットに基づく興味のあるクラスにおけるディープニューラルネットワーク(dnn)の精度と画像圧縮の関係。 (ii)目標位置 三 それぞれのUAVのルーティング、データ前処理及び目標割り当てを最適化するための現在のUAVのエネルギー/配置 A$^2$-TPPがNP-Hardであることを示し、効率よく解く多項式時間アルゴリズムを提案する。 4機のDJI Mavic Air 2 UAVを用いた実世界の実験により,A$^2$-UAVを広く評価した。 我々は、4つの異なるDNNモデル(DenseNet、ResNet152、ResNet50、MobileNet-V2)による最先端の画像分類タスクと、ImageNetデータセットでトレーニングされたYoloV4を用いたオブジェクト検出タスクを検討する。 その結果,A$^2$-UAVは最先端のタスクよりも平均38%多く達成でき,目標数が大幅に増加すると400%のタスクが達成されることがわかった。 完全な再現性を実現するため、私たちはデータセットとコードを研究コミュニティと共有することを約束します。

To perform advanced surveillance, Unmanned Aerial Vehicles (UAVs) require the execution of edge-assisted computer vision (CV) tasks. In multi-hop UAV networks, the successful transmission of these tasks to the edge is severely challenged due to severe bandwidth constraints. For this reason, we propose a novel A$^2$-UAV framework to optimize the number of correctly executed tasks at the edge. In stark contrast with existing art, we take an application-aware approach and formulate a novel pplication-Aware Task Planning Problem (A$^2$-TPP) that takes into account (i) the relationship between deep neural network (DNN) accuracy and image compression for the classes of interest based on the available dataset, (ii) the target positions, (iii) the current energy/position of the UAVs to optimize routing, data pre-processing and target assignment for each UAV. We demonstrate A$^2$-TPP is NP-Hard and propose a polynomial-time algorithm to solve it efficiently. We extensively evaluate A$^2$-UAV through real-world experiments with a testbed composed by four DJI Mavic Air 2 UAVs. We consider state-of-the-art image classification tasks with four different DNN models (i.e., DenseNet, ResNet152, ResNet50 and MobileNet-V2) and object detection tasks using YoloV4 trained on the ImageNet dataset. Results show that A$^2$-UAV attains on average around 38% more accomplished tasks than the state-of-the-art, with 400% more accomplished tasks when the number of targets increases significantly. To allow full reproducibility, we pledge to share datasets and code with the research community.
翻訳日:2023-01-18 16:07:16 公開日:2023-01-16
# 画像分割のためのポストトレイン適応U-Net

Post-Train Adaptive U-Net for Image Segmentation ( http://arxiv.org/abs/2301.06358v1 )

ライセンス: Link先を確認
Kostiantyn Khabarlak(参考訳) イメージセグメンテーションに使用される典型的なニューラルネットワークアーキテクチャは、さらなるトレーニングなしでは変更できない。 ネットワークは強力なサーバ上でだけでなく、モバイルやエッジデバイス上でも実行されるため、これはかなり制限される。 アダプティブニューラルネットワークは、トレーニングプロセスが完了した後に一定の適応性を許容することで、この問題に対する解決策を提供する。 本研究では,PTA(Post-Train Adaptive)アプローチを画像セグメンテーションの課題に適用する。 U-Net+PTAニューラルネットワークを導入し、一度トレーニングし、異なるデバイスパフォーマンスカテゴリに適応する。 このアプローチの2つの重要なコンポーネントは、PTAブロックとPTAサンプリングトレーニング戦略である。 トレーニング後の設定は、モバイルを含む任意の推論デバイス上で実行時に行うことができる。 また、PTAアプローチはCamVidデータセットのイメージセグメンテーションDiceスコアを改善することができる。 最終的なトレーニングモデルは、実行時に6つのPTA構成に切り換えることが可能で、推論時間と品質によって異なる。 重要なことに、すべての構成は元のU-Net(No PTA)モデルよりも品質が良い。

Typical neural network architectures used for image segmentation cannot be changed without further training. This is quite limiting as the network might not only be executed on a powerful server, but also on a mobile or edge device. Adaptive neural networks offer a solution to the problem by allowing certain adaptivity after the training process is complete. In this work for the first time, we apply Post-Train Adaptive (PTA) approach to the task of image segmentation. We introduce U-Net+PTA neural network, which can be trained once, and then adapted to different device performance categories. The two key components of the approach are PTA blocks and PTA-sampling training strategy. The post-train configuration can be done at runtime on any inference device including mobile. Also, the PTA approach has allowed to improve image segmentation Dice score on the CamVid dataset. The final trained model can be switched at runtime between 6 PTA configurations, which differ by inference time and quality. Importantly, all of the configurations have better quality than the original U-Net (No PTA) model.
翻訳日:2023-01-18 16:06:46 公開日:2023-01-16
# 対向伝播光周波数コムを用いたイオン量子ビットの個別アドレッシング

Individual addressing of ion qubits with counter-propagating optical frequency combs ( http://arxiv.org/abs/2301.06356v1 )

ライセンス: Link先を確認
Evgeny Anikin, Lianna A. Akopyan, Mikhail Popov, Yelnury Suleimen, Olga Lakhmanskaya, Kirill Lakhmanskiy(参考訳) 2つの超安定フェムト秒周波数コムを用いた線形トラップイオン鎖の個別単一量子ビットアドレッシング法を提案する。 そのため,ターゲットイオンに重なり合う2つの対向伝播周波数コムを持つ単一量子ビットゲートを実装し,acスタークシフトを引き起こすことを提案する。 解析計算と数値モデリングにより、イオン鎖に沿って伝播するレーザー場のみを用いて任意の単一量子ビット回転を実現することができることを示す。 提案手法の誤り源を解析し,高い忠実度を持つ単一ビットゲートの実装を可能にすることを示す。

We propose a new method of individual single-qubit addressing of linear trapped-ion chains utilizing two ultrastable femtosecond frequency combs. For that, we suggest implementing the single-qubit gates with two counter-propagating frequency combs overlapping on the target ion and causing the AC Stark shift between the qubit levels. With analytical calculations and numerical modeling, we show that the arbitrary single-qubit rotations can be indeed realized using only laser fields propagating along the ion chain. We analyze the error sources for the proposed addressing method and prove that it allows implementing the single-qubit gates with high fidelity.
翻訳日:2023-01-18 16:06:32 公開日:2023-01-16
# PyExperimenter: 簡単に実験を配布し、結果を追跡できる

PyExperimenter: Easily distribute experiments and track results ( http://arxiv.org/abs/2301.06348v1 )

ライセンス: Link先を確認
Tanja Tornede, Alexander Tornede, Lukas Fehring, Lukas Gehring, Helena Graf, Jonas Hanselle, Felix Mohr, Marcel Wever(参考訳) PyExperimenterは、アルゴリズムの実験的研究の結果のセットアップ、ドキュメンテーション、実行、そしてその後の評価を容易にするツールであり、特に、関連する手作業を大幅に削減するために設計されている。 人工知能の分野で研究者が使用することを意図しているが、それらに限定されない。

PyExperimenter is a tool to facilitate the setup, documentation, execution, and subsequent evaluation of results from an empirical study of algorithms and in particular is designed to reduce the involved manual effort significantly. It is intended to be used by researchers in the field of artificial intelligence, but is not limited to those.
翻訳日:2023-01-18 16:06:22 公開日:2023-01-16
# 非滑らかな非凸確率最適化のための高速勾配自由アルゴリズム

Faster Gradient-Free Algorithms for Nonsmooth Nonconvex Stochastic Optimization ( http://arxiv.org/abs/2301.06428v1 )

ライセンス: Link先を確認
Lesi Chen, Jing Xu and Luo Luo(参考訳) 我々は、$\min_{x \in \mathbb{R}^d} f(x) \triangleq \mathbb{E}_{\xi} [F(x; \xi)]$という形の最適化問題を考える。 最近提案された勾配なし法では、最大$\mathcal{o}(l^4 d^{3/2} \epsilon^{-4} + \delta l^3 d^{3/2} \delta^{-1} \epsilon^{-4})$ 確率的ゼロ次オラクル複雑性が $(\delta,\epsilon)$-goldstein stationary point of objective function、ここでは$$\delta = f(x_0) - \inf_{x \in \mathbb{r}^d} f(x)$と$x_0$がアルゴリズムの初期点となる。 本稿では, 確率的再帰勾配推定器を用いたより効率的なアルゴリズムを提案し, 複雑性を~$\mathcal{O}(L^3 d^{3/2} \epsilon^{-3}+ \Delta L^2 d^{3/2} \delta^{-1} \epsilon^{-3})$に改善する。

We consider the optimization problem of the form $\min_{x \in \mathbb{R}^d} f(x) \triangleq \mathbb{E}_{\xi} [F(x; \xi)]$, where the component $F(x;\xi)$ is $L$-mean-squared Lipschitz but possibly nonconvex and nonsmooth. The recently proposed gradient-free method requires at most $\mathcal{O}( L^4 d^{3/2} \epsilon^{-4} + \Delta L^3 d^{3/2} \delta^{-1} \epsilon^{-4})$ stochastic zeroth-order oracle complexity to find a $(\delta,\epsilon)$-Goldstein stationary point of objective function, where~$\Delta = f(x_0) - \inf_{x \in \mathbb{R}^d} f(x)$ and $x_0$ is the initial point of the algorithm. This paper proposes a more efficient algorithm using stochastic recursive gradient estimators, which improves the complexity to~$\mathcal{O}(L^3 d^{3/2} \epsilon^{-3}+ \Delta L^2 d^{3/2} \delta^{-1} \epsilon^{-3})$.
翻訳日:2023-01-18 16:00:53 公開日:2023-01-16
# AIアライメント対話:サポートエージェントにおけるAIアライメントの対話的アプローチ

AI Alignment Dialogues: An Interactive Approach to AI Alignment in Support Agents ( http://arxiv.org/abs/2301.06421v1 )

ライセンス: Link先を確認
Pei-Yu Chen, Myrthe L. Tielman, Dirk K.J. Heylen, Catholijn M. Jonker, M. Birna van Riemsdijk(参考訳) AIアライメントとは、AIシステムが人間にとって有益な目標と活動のみを追求することである。 AIアライメントの現在のアプローチのほとんどは、人間が行動データから何を評価するかを学ぶことです。 本稿では,AIアライメント対話(AI Alignment Dialogues: ユーザとエージェントが対話を通じてアライメントを達成・維持しようとする対話)を導入することで,アライメントの概念の異なる方法を提案する。 我々は、アライメント・ダイアログはデータ駆動型アプローチと比較して、特に行動支援エージェントにおいて多くの利点があると主張している。 アライメント対話の利点は、ユーザーがエージェントに直接ハイレベルな概念を伝えることを可能にし、エージェントをより透明で信頼できるものにすることである。 本稿では,アライメント対話の概念と高レベル構造について概説する。 さらに,アライメント・ダイアログがユーザに与える影響を記述したモデルを開発し,AIアライメント・ダイアログの設計提案を行った。 これにより、aiアライメント対話の基礎を確立し、さらなる開発と研究を必要とするものを明らかにする。

AI alignment is about ensuring AI systems only pursue goals and activities that are beneficial to humans. Most of the current approach to AI alignment is to learn what humans value from their behavioural data. This paper proposes a different way of looking at the notion of alignment, namely by introducing AI Alignment Dialogues: dialogues with which users and agents try to achieve and maintain alignment via interaction. We argue that alignment dialogues have a number of advantages in comparison to data-driven approaches, especially for behaviour support agents, which aim to support users in achieving their desired future behaviours rather than their current behaviours. The advantages of alignment dialogues include allowing the users to directly convey higher-level concepts to the agent, and making the agent more transparent and trustworthy. In this paper we outline the concept and high-level structure of alignment dialogues. Moreover, we conducted a qualitative focus group user study from which we developed a model that describes how alignment dialogues affect users, and created design suggestions for AI alignment dialogues. Through this we establish foundations for AI alignment dialogues and shed light on what requires further development and research.
翻訳日:2023-01-18 16:00:20 公開日:2023-01-16
# マインド・ザ・ギャップ - 検閲と無検閲の電気自動車の充電需要の差異をモデル化する

Mind The Gap -- Modelling Difference Between Censored and Uncensored Electric Vehicle Charging Demand ( http://arxiv.org/abs/2301.06418v1 )

ライセンス: Link先を確認
Frederik Boe H\"uttel and Filipe Rodrigues and Francisco C\^amara Pereira(参考訳) 電気自動車の充電需要モデルは、充電記録を入力として、本質的に利用可能な充電器の供給に偏る。 この失われた需要は、記録が総需要のごく一部しか観測せず、すなわち、観測は検閲され、実際の需要はデータが反映するものよりも高い可能性が高いことを意味している。 機械学習モデルは、料金需要を予測する際にこの検閲された需要を考慮せず、将来の拡張や供給管理へのモデルの応用を制限することが多い。 空間次元と時間次元の両方で潜在需要分布を学習する確率論的検閲対応グラフニューラルネットワークを用いて、充電需要をモデル化することで、このギャップに対処する。 デンマークのコペンハーゲンにある車のGPSトラジェクトリを使用して、検閲がどのように発生し、充電と競合サービスによって多くの需要が失われるかを調査します。 検閲は都市全体や時間によって異なり、時間的および時間的モデリングが促進される。 コペンハーゲンのいくつかの地域では、検閲が全体の61%を占めている。 以上の結果から,検閲意識モデルの方が,検閲意識モデルよりも将来需要の予測や不確かさを予測できることがわかった。 この供給管理とインフラ拡張における機械学習モデルの適用領域を拡大するために,充電記録に基づく将来のモデルは検閲を考慮すべきである。

Electric vehicle charging demand models, with charging records as input, will inherently be biased toward the supply of available chargers, as the data do not include demand lost from occupied stations and competitors. This lost demand implies that the records only observe a fraction of the total demand, i.e. the observations are censored, and actual demand is likely higher than what the data reflect. Machine learning models often neglect to account for this censored demand when forecasting the charging demand, which limits models' applications for future expansions and supply management. We address this gap by modelling the charging demand with probabilistic censorship-aware graph neural networks, which learn the latent demand distribution in both the spatial and temporal dimensions. We use GPS trajectories from cars in Copenhagen, Denmark, to study how censoring occurs and much demand is lost due to occupied charging and competing services. We find that censorship varies throughout the city and over time, encouraging spatial and temporal modelling. We find that in some regions of Copenhagen, censorship occurs 61% of the time. Our results show censorship-aware models provide better prediction and uncertainty estimation in actual future demand than censorship-unaware models. Our results suggest that future models based on charging records should account for the censoring to expand the application areas of machine learning models in this supply management and infrastructure expansion.
翻訳日:2023-01-18 15:59:59 公開日:2023-01-16
# g$-graded fusionカテゴリによる1次元格子モデルの構築

Building 1D lattice models with $G$-graded fusion category ( http://arxiv.org/abs/2301.06416v1 )

ライセンス: Link先を確認
Shang-Qiang Ning, Bin-Bin Mao and Chenjie Wang(参考訳) 我々は、1次元(1次元)量子格子の族を、$g$-graded unitary fusion category $\mathcal{c}_g$ に基づいて構成する。 この族は、エノン鎖モデルと2次元対称性保護位相状態のエッジモデルの間の補間を実現し、2次元対称性強化位相状態のエッジモデルと考えることができる。 これらのモデルは、入力圏 $\mathcal{C}_G$ によって特徴づけられる、伝統的なグローバル対称性の集合を表示する。 自然対称性の破れも可能であるが、我々の数値的な証拠は、圏対称性がモデルに低エネルギー物理学がギャップのない大きな可能性を持つ程度に制約することを示している。

We construct a family of one-dimensional (1D) quantum lattice models based on $G$-graded unitary fusion category $\mathcal{C}_G$. This family realize an interpolation between the anyon-chain models and edge models of 2D symmetry-protected topological states, and can be thought of as edge models of 2D symmetry-enriched topological states. The models display a set of unconventional global symmetries that are characterized by the input category $\mathcal{C}_G$. While spontaneous symmetry breaking is also possible, our numerical evidence shows that the category symmetry constrains the the models to the extent that the low-energy physics has a large likelihood to be gapless.
翻訳日:2023-01-18 15:59:38 公開日:2023-01-16
# パフォーマンス保証による分散学習におけるプライバシの強化

Enforcing Privacy in Distributed Learning with Performance Guarantees ( http://arxiv.org/abs/2301.06412v1 )

ライセンス: Link先を確認
Elsa Rizk, Stefan Vlaski, Ali H. Sayed(参考訳) 分散学習の民営化と最適化戦略について検討する。 ディファレンシャルプライバシスキームに注目し,そのパフォーマンスへの影響について検討する。 グラフ構造によく調整されていないため,一般的な加法的ランダム摂動スキームは性能を低下させる。 このため,2つのグラフ正則構成を活用し,プライバシを保証しながら性能を向上させることを示す。 さらに、ほとんどの初期の研究とは対照的に、リスクの勾配は境界(実際にはめったに成立しない条件、例えば二次的リスク)ではないと仮定される。 我々はこの条件を回避し、高い確率で微分プライベートなスキームを考案する。 最適化と学習シナリオを調査し,シミュレーションにより理論的知見を説明する。

We study the privatization of distributed learning and optimization strategies. We focus on differential privacy schemes and study their effect on performance. We show that the popular additive random perturbation scheme degrades performance because it is not well-tuned to the graph structure. For this reason, we exploit two alternative graph-homomorphic constructions and show that they improve performance while guaranteeing privacy. Moreover, contrary to most earlier studies, the gradient of the risks is not assumed to be bounded (a condition that rarely holds in practice; e.g., quadratic risk). We avoid this condition and still devise a differentially private scheme with high probability. We examine optimization and learning scenarios and illustrate the theoretical findings through simulations.
翻訳日:2023-01-18 15:59:26 公開日:2023-01-16
# 議論的な対話で心を開く

Opening up Minds with Argumentative Dialogues ( http://arxiv.org/abs/2301.06400v1 )

ライセンス: Link先を確認
Youmna Farag, Charlotte O. Brand, Jacopo Amidei, Paul Piwek, Tom Stafford, Svetlana Stoyanchev, Andreas Vlachos(参考訳) 議論的対話に関する最近の研究は、人々が何らかの行動を取るよう説得すること、議論の話題に対する姿勢を変えること、あるいは議論に勝つことに焦点を当てている。 本研究は,他人の心を(変化ではなく)開こうとする議論的対話に焦点をあてて,不慣れな,あるいは自身の信念に反する見解に対する理解を深めることを支援する。 この目的のために,議論の的となる3つの話題であるベガニズム,ブレグジット,covid-19予防接種に関する183の議論的対話のデータセットを提示する。 対話はウィザード・オブ・オズのアプローチを用いて収集され、ウィザードは議論の知識ベースを利用して参加者と会話する。 心理学文献からのアンケートを用いて、対話の前後におけるオープンマインドネスを計測し、対話の成功を、異なる意見を持つ者に対する参加者のスタンスの変化として測定する。 対話モデルとしてwikipediaと引数モデルの評価を行った。 両モデルとも心を開くという点で密接に機能するが,議論に基づくモデルは,係り合いや明瞭さなどの他の対話特性よりも優れていることを示す。

Recent research on argumentative dialogues has focused on persuading people to take some action, changing their stance on the topic of discussion, or winning debates. In this work, we focus on argumentative dialogues that aim to open up (rather than change) people's minds to help them become more understanding to views that are unfamiliar or in opposition to their own convictions. To this end, we present a dataset of 183 argumentative dialogues about 3 controversial topics: veganism, Brexit and COVID-19 vaccination. The dialogues were collected using the Wizard of Oz approach, where wizards leverage a knowledge-base of arguments to converse with participants. Open-mindedness is measured before and after engaging in the dialogue using a questionnaire from the psychology literature, and success of the dialogue is measured as the change in the participant's stance towards those who hold opinions different to theirs. We evaluate two dialogue models: a Wikipedia-based and an argument-based model. We show that while both models perform closely in terms of opening up minds, the argument-based model is significantly better on other dialogue properties such as engagement and clarity.
翻訳日:2023-01-18 15:59:17 公開日:2023-01-16
# 局所多体フロッケ系における2段階緩和

Two-step relaxation in local many-body Floquet systems ( http://arxiv.org/abs/2301.06395v1 )

ライセンス: Link先を確認
Marko Znidaric(参考訳) 我々は、初期非ジェネリック状態からの緩和過程が、ユニタリ量子進化の下での長時間の典型的な状態にどのように進むかを理解したい。 初期相関時間の緩和の後、一定減衰率の単純な指数的崩壊が起こると期待できる。 これは必ずしもそうではないことを示す。 プロパゲータが個々の固定2量子ゲートから成り、純度と時間外順序の相関関数に焦点をあてた様々なフロッケ系の研究により、多くの状況において、緩和は指数関数的に減衰するが緩和率が異なる2つのフェーズで進行することがわかった。 すなわち、熱力学的限界において、緩和速度は系の大きさに比例する臨界時間におけるジャンプを示す。

We want to understand how relaxation process from an initial non-generic state proceeds towards a long-time typical state reached under unitary quantum evolution. One would expect that after some initial correlation time relaxation will be a simple exponential decay with constant decay rate. We show that this is not necessarily the case. Studying various Floquet system where the propagator is composed of individual fixed two-qubit gates, and focusing on purity and out-of-time-ordered correlation functions, we find that in many situations relaxation proceeds in two phases with exponential decay but different relaxation rates. Namely, in the thermodynamic limit the relaxtion rate exhibits a jump at a critical time proportional to system's size.
翻訳日:2023-01-18 15:58:59 公開日:2023-01-16
# $\beta$-DARTS++: Proxy-robust Differentiable Architecture Searchのためのバイレベル正規化

$\beta$-DARTS++: Bi-level Regularization for Proxy-robust Differentiable Architecture Search ( http://arxiv.org/abs/2301.06393v1 )

ライセンス: Link先を確認
Peng Ye, Tong He, Baopu Li, Tao Chen, Lei Bai, Wanli Ouyang(参考訳) ニューラルアーキテクチャサーチは近年注目を集めている。 その中でも、dartのような異なるnasアプローチが検索効率で人気を集めている。 しかし, 性能低下による安定性の低下, 探索されたアーキテクチャの一般化能力の低下, 異なる種類のプロキシに対するロバスト性の低下, といった3つの問題に悩まされている。 安定性と一般化問題を解決するために、DARTSに基づくNAS探索プロセス(すなわち$\beta$-DARTS)を正規化するために、β-Decayと呼ばれる単純だが効果的な正規化法を提案する。 具体的には、Beta-Decay正規化は、アクティブなアーキテクチャパラメータの値と分散が大きすぎることを防ぐために制約を課し、アーキテクチャパラメータ間の公正な競合を保証し、スーパーネットが操作セットに対する入力の影響に敏感でないようにする。 どのように動作するのか、なぜ動作するのかに関する詳細な理論的分析が提供される。 総合的な実験により、Beta-Decay正則化は検索プロセスを安定させ、検索されたネットワークを異なるデータセット間で転送しやすくする。 このようなロバスト性問題に対処するために,我々はまず,さまざまなnasメソッドをさまざまなプロキシデータ,プロキシチャネル,プロキシレイヤ,プロキシエポックの下でベンチマークした。 次に、いくつかの興味深い結果が得られ、ほぼすべてのプロキシで比較されたNAS手法の中で、$\beta$-DARTSが常に最良の結果が得られることが分かる。 我々はさらに,$\beta$-darts(すなわちbiレベル正規化)の重量最適化に新しいフラッディング正規化を導入し,その効果を実験的かつ理論的に検証し,微分可能なnasのプロキシロバスト性を改善する。

Neural Architecture Search has attracted increasing attention in recent years. Among them, differential NAS approaches such as DARTS, have gained popularity for the search efficiency. However, they still suffer from three main issues, that are, the weak stability due to the performance collapse, the poor generalization ability of the searched architectures, and the inferior robustness to different kinds of proxies. To solve the stability and generalization problems, a simple-but-effective regularization method, termed as Beta-Decay, is proposed to regularize the DARTS-based NAS searching process (i.e., $\beta$-DARTS). Specifically, Beta-Decay regularization can impose constraints to keep the value and variance of activated architecture parameters from being too large, thereby ensuring fair competition among architecture parameters and making the supernet less sensitive to the impact of input on the operation set. In-depth theoretical analyses on how it works and why it works are provided. Comprehensive experiments validate that Beta-Decay regularization can help to stabilize the searching process and makes the searched network more transferable across different datasets. To address the robustness problem, we first benchmark different NAS methods under a wide range of proxy data, proxy channels, proxy layers and proxy epochs, since the robustness of NAS under different kinds of proxies has not been explored before. We then conclude some interesting findings and find that $\beta$-DARTS always achieves the best result among all compared NAS methods under almost all proxies. We further introduce the novel flooding regularization to the weight optimization of $\beta$-DARTS (i.e., Bi-level regularization), and experimentally and theoretically verify its effectiveness for improving the proxy robustness of differentiable NAS.
翻訳日:2023-01-18 15:58:46 公開日:2023-01-16
# I See-Through You:Sparse and Dense Light Field Imagesにおける前景閉塞除去のためのフレームワーク

I See-Through You: A Framework for Removing Foreground Occlusion in Both Sparse and Dense Light Field Images ( http://arxiv.org/abs/2301.06392v1 )

ライセンス: Link先を確認
Jiwan Hur, Jae Young Lee, Jaehyun Choi, and Junmo Kim(参考訳) 光フィールド(LF)カメラはシーンから豊富な情報をキャプチャする。 この情報を用いてlf deocclusion(lf-deocc)タスクは、閉塞のないセンタービューイメージを再構築することを目的としている。 既存の lf-deocc の研究は、主に、大きな差のため、多くの遮蔽領域が他の視点で見ることができる、スパースにサンプリングされた (スパース) lf 画像に焦点を当てている。 本稿では,マイクロレンズ型ポータブルLFカメラで撮影された高密度(高密度)LF画像を用いて,より困難なデータセットにLF-DeOccを拡張する。 密度の高いlf画像の差が小さいため、背景領域のほとんどがどの視点でも見えない。 両方のLFデータセットにLF-DeOccを適用するために,(1)LF特徴の抽出,(2)オクルージョンの定義,(3)非塗装領域の3つの役割からなるフレームワーク,ISTYを提案する。 フレームワークを役割に応じて3つの特別なコンポーネントに分割することで、開発と分析が容易になる。 さらに,提案手法では,説明可能な中間表現である咬合マスクを得ることができる。 咬合マスクは、マスクを操作することによってモデルやその他の応用の包括的な分析に有用である。 実験において、定性的および定量的な結果から、提案手法はスパースおよび密度の高いLFデータセットにおいて最先端のLF-DeOcc法より優れていることが示された。

Light field (LF) camera captures rich information from a scene. Using the information, the LF de-occlusion (LF-DeOcc) task aims to reconstruct the occlusion-free center view image. Existing LF-DeOcc studies mainly focus on the sparsely sampled (sparse) LF images where most of the occluded regions are visible in other views due to the large disparity. In this paper, we expand LF-DeOcc in more challenging datasets, densely sampled (dense) LF images, which are taken by a micro-lens-based portable LF camera. Due to the small disparity ranges of dense LF images, most of the background regions are invisible in any view. To apply LF-DeOcc in both LF datasets, we propose a framework, ISTY, which is defined and divided into three roles: (1) extract LF features, (2) define the occlusion, and (3) inpaint occluded regions. By dividing the framework into three specialized components according to the roles, the development and analysis can be easier. Furthermore, an explainable intermediate representation, an occlusion mask, can be obtained in the proposed framework. The occlusion mask is useful for comprehensive analysis of the model and other applications by manipulating the mask. In experiments, qualitative and quantitative results show that the proposed framework outperforms state-of-the-art LF-DeOcc methods in both sparse and dense LF datasets.
翻訳日:2023-01-18 15:58:13 公開日:2023-01-16
# PECAN: コンテキスト対応型ゼロショットヒューマンAIコーディネーションのためのレバレッジポリシ

PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI Coordination ( http://arxiv.org/abs/2301.06387v1 )

ライセンス: Link先を確認
Xingzhou Lou, Jiaxian Guo, Junge Zhang, Jun Wang, Kaiqi Huang, Yali Du(参考訳) ゼロショットの人間とAIの協調は、人間のデータなしで人間と協力するという約束を守る。 一般的な方法は、セルフプレイを通じて、パートナーの集団とegoエージェントを訓練しようとする。 しかし、この方法には2つの問題がある。 1) 有限パートナーを持つ集団の多様性は限定され、訓練された自我エージェントが新規の人間と協力する能力が制限される。 2) 現在の方法は,すべてのパートナーに対して共通のベスト応答しか提供せず,新たなパートナーや人間とのゼロショット協調性能が低下する可能性がある。 これらの問題に対処するために,まず,パートナーの多様性を高めるためのポリシーアンサンブル手法を提案し,その後,egoエージェントがパートナーの潜在ポリシープリミティブを分析・識別し,それに応じて異なるアクションを取ることができるコンテキスト認識手法を開発した。 このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。 オーバークッキング環境で実験を行い,行動閉鎖型ヒトプロキシと実人間の両方を用いて,ゼロショットヒト-AI協調性能の評価を行った。 その結果,本手法はパートナーの多様性を著しく向上させ,egoエージェントがベースラインよりもより多様な行動を学ぶことを可能にし,すべてのシナリオにおいて最先端のパフォーマンスを実現する。

Zero-shot human-AI coordination holds the promise of collaborating with humans without human data. Prevailing methods try to train the ego agent with a population of partners via self-play. However, this kind of method suffers from two problems: 1) The diversity of a population with finite partners is limited, thereby limiting the capacity of the trained ego agent to collaborate with a novel human; 2) Current methods only provide a common best response for every partner in the population, which may result in poor zero-shot coordination performance with a novel partner or humans. To address these issues, we first propose the policy ensemble method to increase the diversity of partners in the population, and then develop a context-aware method enabling the ego agent to analyze and identify the partner's potential policy primitives so that it can take different actions accordingly. In this way, the ego agent is able to learn more universal cooperative behaviors for collaborating with diverse partners. We conduct experiments on the Overcooked environment, and evaluate the zero-shot human-AI coordination performance of our method with both behavior-cloned human proxies and real humans. The results demonstrate that our method significantly increases the diversity of partners and enables ego agents to learn more diverse behaviors than baselines, thus achieving state-of-the-art performance in all scenarios.
翻訳日:2023-01-18 15:57:48 公開日:2023-01-16
# フランス法の自動統一に向けて

Towards an Automatic Consolidation of French Law ( http://arxiv.org/abs/2301.06469v1 )

ライセンス: Link先を確認
Georges-Andr\'e Silber (CRC)(参考訳) 我々は、フランスと欧州の法律を自動統合するツールであるlegistixについて予備的な結果を提示する。 legistixは、コンパイラの連続したパスに似た、いくつかの複合文法で使われる正規表現と、テキストに適用される変更を記述することができる関数型の新しい特殊言語の両方に基づいている。 修正日ごとにテキストの完全な統合バージョンを手動で作成する代わりに、legistixは自然言語で書かれた法律文書から自動的にプログラムを生成し、統合バージョンを自動的に作成する。

We present preliminary results about Legistix, a tool we are developing to automatically consolidate the French and European law. Legistix is based both on regular expressions used in several compound grammars, similar to the successive passes of a compiler, and on a new specialized language of functional type, allowing to describe the changes applied to the texts. Instead of creating manually a full consolidated version of a text at each modification date, Legistix generates automatically programs from legal documents written in natural language to automatically create the consolidated versions.
翻訳日:2023-01-18 15:51:10 公開日:2023-01-16
# msanii: 靴ひも予算による高忠実度音楽合成

Msanii: High Fidelity Music Synthesis on a Shoestring Budget ( http://arxiv.org/abs/2301.06468v1 )

ライセンス: Link先を確認
Kinyugo Maina(参考訳) 本稿では,長文高忠実度音楽の合成を効率的に行う新しい拡散モデルであるMsaniiを提案する。 本モデルでは,メルスペクトログラムの表現性,拡散モデルの生成能力,ニューラルヴォコーダの音声符号化能力を組み合わせた。 合成, カスケード, 圧縮技術を用いることなく, 高サンプリングレート (44.1 kHz) で数秒 (190秒) のステレオ音楽を合成することで, Msaniiの有効性を実証した。 我々の知る限りでは、このような長い音楽サンプルを高いサンプリングレートで合成するために拡散モデルを用いた最初の試みである。 私たちのデモはhttps://kinyugo.github.io/msanii-demoとコードhttps://github.com/Kinyugo/msaniiを参照してください。

In this paper, we present Msanii, a novel diffusion-based model for synthesizing long-context, high-fidelity music efficiently. Our model combines the expressiveness of mel spectrograms, the generative capabilities of diffusion models, and the vocoding capabilities of neural vocoders. We demonstrate the effectiveness of Msanii by synthesizing tens of seconds (190 seconds) of stereo music at high sample rates (44.1 kHz) without the use of concatenative synthesis, cascading architectures, or compression techniques. To the best of our knowledge, this is the first work to successfully employ a diffusion-based model for synthesizing such long music samples at high sample rates. Our demo can be found https://kinyugo.github.io/msanii-demo and our code https://github.com/Kinyugo/msanii .
翻訳日:2023-01-18 15:51:01 公開日:2023-01-16
# 相関テンソルに基づく真の多部絡み合いの基準

Criteria of genuine multipartite entanglement based on correlation tensors ( http://arxiv.org/abs/2301.06463v1 )

ライセンス: Link先を確認
Naihuan Jing, Meiming Zhang(参考訳) 我々は、シュミット分解と局所ユニタリ変換のみを含む単純化された方法により、真のマルチパーティ・エンタングルメントを再考する。 我々は三量子量子状態の局所的ユニタリ同値類を構築し、それから相関テンソル全体のトレースノルムを測定として、真の多部絡みを検出する。 詳細な例によって、より真に絡み合った状態を検出できることを示した。 さらに, 真の多成分絡み合い基準を3成分高次元系に一般化する。

We revisit the genuine multipartite entanglement by a simplified method, which only involves the Schmidt decomposition and local unitary transformation. We construct a local unitary equivalent class of the tri-qubit quantum state, then use the trace norm of the whole correlation tensor as a measurement to detect genuine multipartite entanglement. By detailed examples, we show our result can detect more genuinely entangled states. Furthermore, we generalize the genuine multipartite entanglement criterion to tripartite higher-dimensional systems.
翻訳日:2023-01-18 15:50:47 公開日:2023-01-16
# PlasmoFAB: Plasmodium falciparum protein Antigen Candidate Predictionのための機械学習のためのベンチマーク

PlasmoFAB: A Benchmark to Foster Machine Learning for Plasmodium falciparum Protein Antigen Candidate Prediction ( http://arxiv.org/abs/2301.06454v1 )

ライセンス: Link先を確認
Jonas Christian Ditz and Jacqueline Wistuba-Hamprecht and Timo Maier and Rolf Fendel and Nico Pfeifer and Bernhard Reuter(参考訳) モチベーション(Motivation):医療関連研究分野における科学的発見を支援する機械学習手法。 しかし、これらのメソッドは、高品質でキュレートされたデータセットでトレーニングできる場合にのみ確実に使用できる。 現在、Plasmodium falciparumタンパク質の抗原候補を探索するためのデータセットは存在しない。 寄生虫plasmodium falciparumは感染症のマラリアを引き起こす。 したがって、潜在的な抗原の同定は抗マラリア薬やワクチンの開発に最も重要である。 抗原候補を実験的に探索することは高価で時間のかかるプロセスであるので、このプロセスをサポートするために機械学習手法を適用することは、マラリアとの戦いや制御に必要な薬やワクチンの開発を加速する可能性がある。 結果:PlasmoFABは,Plasmodium falciparumタンパク質抗原候補の探索のための機械学習手法の訓練に使用できるキュレートされたベンチマークである。 われわれは広範囲にわたる文献検索とドメインの専門知識を組み合わせて,抗原候補と細胞内タンパク質を区別するPlasmodium falciparum特異的タンパク質の高品質なラベルを作成した。 さらに,このベンチマークを用いて,タンパク質抗原候補の同定作業において,よく知られた予測モデルと利用可能なタンパク質局在予測サービスを比較した。 利用可能な汎用サービスは、タンパク質抗原候補の同定に十分な性能を提供できず、特殊なデータに基づいて訓練されたモデルにより性能が向上していることを示す。

Motivation: Machine learning methods can be used to support scientific discovery in healthcare-related research fields. However, these methods can only be reliably used if they can be trained on high-quality and curated datasets. Currently, no such dataset for the exploration of Plasmodium falciparum protein antigen candidates exists. The parasite Plasmodium falciparum causes the infectious disease malaria. Thus, identifying potential antigens is of utmost importance for the development of antimalarial drugs and vaccines. Since exploring antigen candidates experimentally is an expensive and time-consuming process, applying machine learning methods to support this process has the potential to accelerate the development of drugs and vaccines which are needed for fighting and controlling malaria. Results: We developed PlasmoFAB, a curated benchmark that can be used to train machine learning methods for the exploration of Plasmodium falciparum protein antigen candidates. We combined an extensive literature search with domain expertise to create high-quality labels for Plasmodium falciparum specific proteins that distinguish between antigen candidates and intracellular proteins. Additionally, we used our benchmark to compare different well-known prediction models and available protein localization prediction services on the task of identifying protein antigen candidates. We show that available general-purpose services are unable to provide sufficient performance on identifying protein antigen candidates and are outperformed by models that were trained on specialized data.
翻訳日:2023-01-18 15:50:39 公開日:2023-01-16
# Rydberg 原子アレイを用いたディジタルアナログ変分量子固有解器の青写真化

A blueprint for a Digital-Analog Variational Quantum Eigensolver using Rydberg atom arrays ( http://arxiv.org/abs/2301.06453v1 )

ライセンス: Link先を確認
Antoine Michel, Sebastian Grijalva, Lo\"ic Henriet, Christophe Domain and Antoine Browaeys(参考訳) 我々は、化学から来るハミルトンの基底状態エネルギーを推定するタスクに対処する。 h2,lih,beh2分子に対するディジタル・アナログ変分量子固有ソルバの挙動を数値的に検討し,分子ハミルトニアンの選択された特徴について原子レジスタの位置を学習し,各ステップが非ランダム化エネルギー推定を行う反復パルスシェーピング最適化を行うことで、エネルギーを数パーセントの誤差点に推定できることを確認した。

We address the task of estimating the ground-state energy of Hamiltonians coming from chemistry. We study numerically the behavior of a digital-analog variational quantum eigensolver for the H2, LiH and BeH2 molecules, and we observe that one can estimate the energy to a few percent points of error leveraging on learning the atom register positions with respect to selected features of the molecular Hamiltonian and then an iterative pulse shaping optimization, where each step performs a derandomization energy estimation.
翻訳日:2023-01-18 15:50:16 公開日:2023-01-16
# 時間分解光電子運動量顕微鏡による分子の光誘起ダイナミクスのattosecondイメージング

Attosecond imaging of photo-induced dynamics in molecules using time-resolved photoelectron momentum microscopy ( http://arxiv.org/abs/2301.06449v1 )

ライセンス: Link先を確認
Marvin Reuner and Daria Popova-Gorelova(参考訳) 分子中の光子誘起電子動力学を探索するための自由電子レーザーおよび高調波発生源により生成できる、アト秒極紫外およびX線パルスによって提供される新しい機能について検討する。 我々は,ペンタセン分子における電荷移動の空間的および時間的依存性を,時間分解型光電子顕微鏡を用いて時間的に解析する。 解析を行ない、アト秒プローブパルスがかなりのスペクトル拡大をもたらすことを正確に考慮する。 実空間マップ中の中性ペンタセン分子の励起状態ダイナミクスが光電子運動量マップの特異な特徴に現れることを示した。

We explore the novel capabilities offered by attosecond extreme ultraviolet and x-ray pulses that can be now generated by free-electron lasers and high-harmonics generation sources for probing photon-induced electron dynamics in molecules. We theoretically analyze how spatial and temporal dependence of charge migration in a pentacene molecule can be followed by means of time-resolved photoelectron microscopy on the attosecond time scale. Performing the analysis, we accurately take into account that an attosecond probe pulse leads to considerable spectral broadening. We demonstrate that the excited-state dynamics of a neutral pentacene molecule in the real space map onto unique features of photoelectron momentum maps.
翻訳日:2023-01-18 15:50:04 公開日:2023-01-16
# HiFlash: 適応定常制御と異種性を考慮したクライアントエッジアソシエーションによるコミュニケーション効率の高い階層型フェデレーションラーニング

HiFlash: Communication-Efficient Hierarchical Federated Learning with Adaptive Staleness Control and Heterogeneity-aware Client-Edge Association ( http://arxiv.org/abs/2301.06447v1 )

ライセンス: Link先を確認
Qiong Wu and Xu Chen and Tao Ouyang and Zhi Zhou and Xiaoxi Zhang and Shusen Yang and Junshan Zhang(参考訳) フェデレートラーニング(FL)は、巨大なクライアント間で共有モデルを共同で学習し、トレーニングデータをローカルに保持する、有望なパラダイムである。 しかし、既存の多くのFLシステムでは、クライアントはリモートクラウドサーバと直接ワイドエリアネットワーク(WAN)を介して、大規模なデータサイズのモデルパラメータを頻繁に交換する必要がある。 通信ボトルネックを軽減するため,モバイルエッジコンピューティングの利点を享受し,同期クライアントエッジモデルアグリゲーションと非同期エッジクラウドモデルアグリゲーションを組み合わせることで,WAN送信のトラフィック量を大幅に削減するHiFLの階層的フェデレーション学習パラダイムを利用する。 具体的には,まずhiflの収束限界を理論的に解析し,モデル性能向上の鍵となる因子を同定する。 そこで我々は,システム効率を高め,モデルの精度を損なうことなく安定効果を緩和するために,深層強化学習に基づく適応的安定制御と異種性認識型クライアントエッジ関連戦略を革新的に統合することにより,hiflashの強化設計を提唱する。 広範な実験は、モデル精度、通信効率、システム効率において、hiflashの優れた性能を補っている。

Federated learning (FL) is a promising paradigm that enables collaboratively learning a shared model across massive clients while keeping the training data locally. However, for many existing FL systems, clients need to frequently exchange model parameters of large data size with the remote cloud server directly via wide-area networks (WAN), leading to significant communication overhead and long transmission time. To mitigate the communication bottleneck, we resort to the hierarchical federated learning paradigm of HiFL, which reaps the benefits of mobile edge computing and combines synchronous client-edge model aggregation and asynchronous edge-cloud model aggregation together to greatly reduce the traffic volumes of WAN transmissions. Specifically, we first analyze the convergence bound of HiFL theoretically and identify the key controllable factors for model performance improvement. We then advocate an enhanced design of HiFlash by innovatively integrating deep reinforcement learning based adaptive staleness control and heterogeneity-aware client-edge association strategy to boost the system efficiency and mitigate the staleness effect without compromising model accuracy. Extensive experiments corroborate the superior performance of HiFlash in model accuracy, communication reduction, and system efficiency.
翻訳日:2023-01-18 15:49:52 公開日:2023-01-16
# スパース結果に基づくコンピュータビジョンにおける最小解法とその作用行列との関係

Sparse resultant based minimal solvers in computer vision and their connection with the action matrix ( http://arxiv.org/abs/2301.06443v1 )

ライセンス: Link先を確認
Snehal Bhayani, Janne Heikkil\"a, Zuzana Kukelova(参考訳) 多くのコンピュータビジョンアプリケーションは、最小限の入力データ量からカメラの形状を堅牢かつ効率的な推定を必要とし、ransacフレームワークで最小の問題を解決する。 最小問題は通常多項式方程式の複素系として定式化される。 多くの最先端の多項式解法は、近年自動化され高度に最適化されたアクション行列法に基づいている。 本稿では, 最小解法生成のためのスパース結果の理論を考察し, 特別な形式を持つ余剰多項式を用いた新しい手法を提案する。 いくつかのカメラ幾何学問題に対して、我々の余剰多項式ベースの手法は、最先端のGr\"オブナー基底ベースの解法よりも小さく、より安定な解法をもたらすことを示した。 提案手法は,効率的な多項式解法を自動生成する既存のツールに完全自動で組み込むことができる。 コンピュータビジョンにおける最小問題に対する一般的な gr\"obner ベース方式の代替手段を提供する。 さらに, 現状の動作行列に基づく手法と, 提案した余剰多項式行列に基づく手法によって生成される最小解法が等価である条件について検討した。 具体的には、作用行列に基づくアプローチとスパース結果とのステップ・バイ・ステップの比較を考察し、続いて一連の置換を行い、同値な最小解法を導出する。

Many computer vision applications require robust and efficient estimation of camera geometry from a minimal number of input data measurements, ie, solving minimal problems in a RANSAC framework. Minimal problems are usually formulated as complex systems of polynomial equations. Many state-of-the-art efficient polynomial solvers are based on the action matrix method that has been automated and highly optimised in recent years. In this paper we explore the theory of sparse resultants for generating minimal solvers and propose a novel approach based on a using an extra polynomial with a special form. We show that for some camera geometry problems our extra polynomial-based method leads to smaller and more stable solvers than the state-of-the-art Gr\"obner basis-based solvers. The proposed method can be fully automated and incorporated into existing tools for automatic generation of efficient polynomial solvers. It provides a competitive alternative to popular Gr\"obner basis-based methods for minimal problems in computer vision. Additionally, we study the conditions under which the minimal solvers generated by the state-of-the-art action matrix-based methods and the proposed extra polynomial resultant-based method, are equivalent. Specifically we consider a step-by-step comparison between the approaches based on the action matrix and the sparse resultant, followed by a set of substitutions, which would lead to equivalent minimal solvers.
翻訳日:2023-01-18 15:49:26 公開日:2023-01-16
# ドメイン一般化のための不確定な特徴表現のモデリング

Modeling Uncertain Feature Representation for Domain Generalization ( http://arxiv.org/abs/2301.06442v1 )

ライセンス: Link先を確認
Xiaotong Li, Zixuan Hu, Jun Liu, Yixiao Ge, Yongxing Dai, Ling-Yu Duan(参考訳) ディープニューラルネットワークは様々なビジョンタスクで素晴らしい成功を収めているが、モデルが分散のシナリオでテストされた場合、明らかに性能が低下している。 この制限に対処するために、トレーニングデータのドメイン特性を持つ特徴統計(平均偏差と標準偏差)を適切に操作し、ディープラーニングモデルの一般化能力を向上させることを考察する。 既存の手法では、特徴統計は学習した特徴から測定された決定論的値であり、テスト中の潜在的なドメインシフトに起因する不確実な統計の不一致を明示的にモデル化していない。 本稿では,不確実性のある領域シフト(DSU)をモデル化することにより,ネットワークの一般化能力を向上させる。 具体的には、潜在的な不確実性を考慮して、特徴統計は多変量ガウス分布に従うと仮定する。 本稿では,予測不可能なシフトを適応的に処理し,学習モデルの一般化能力をさらに向上するインスタンスワイド適応戦略を提案する。 また,一般化誤差バウンドと暗黙の正規化効果について理論的解析を行い,本手法の有効性を示した。 広範な実験により,画像分類,意味セグメンテーション,インスタンス検索,ポーズ推定など,複数の視覚タスクにおけるネットワーク一般化能力が一貫して向上することを示す。 本手法は単純かつ効果的であり,追加の学習パラメータや損失制約を伴わずにネットワークに容易に統合できる。 コードはhttps://github.com/lixiaotong97/DSUでリリースされる。

Though deep neural networks have achieved impressive success on various vision tasks, obvious performance degradation still exists when models are tested in out-of-distribution scenarios. In addressing this limitation, we ponder that the feature statistics (mean and standard deviation), which carry the domain characteristics of the training data, can be properly manipulated to improve the generalization ability of deep learning models. Existing methods commonly consider feature statistics as deterministic values measured from the learned features and do not explicitly model the uncertain statistics discrepancy caused by potential domain shifts during testing. In this paper, we improve the network generalization ability by modeling domain shifts with uncertainty (DSU), i.e., characterizing the feature statistics as uncertain distributions during training. Specifically, we hypothesize that the feature statistic, after considering the potential uncertainties, follows a multivariate Gaussian distribution. During inference, we propose an instance-wise adaptation strategy that can adaptively deal with the unforeseeable shift and further enhance the generalization ability of the trained model with negligible additional cost. We also conduct theoretical analysis on the aspects of generalization error bound and the implicit regularization effect, showing the efficacy of our method. Extensive experiments demonstrate that our method consistently improves the network generalization ability on multiple vision tasks, including image classification, semantic segmentation, instance retrieval, and pose estimation. Our methods are simple yet effective and can be readily integrated into networks without additional trainable parameters or loss constraints. Code will be released in https://github.com/lixiaotong97/DSU.
翻訳日:2023-01-18 15:49:05 公開日:2023-01-16
# 画像分割参照のための学習型クロスモーダル表現

Learning Aligned Cross-modal Representations for Referring Image Segmentation ( http://arxiv.org/abs/2301.06429v1 )

ライセンス: Link先を確認
Zhichao Wei, Xiaohao Chen, Mingqiang Chen, Siyu Zhu(参考訳) 参照画像分割は、典型的なマルチモーダルタスクである所定の言語表現に従って、関心のある画像領域を分割することを目的としている。 このタスクの重要な課題の1つは、視覚や言語を含む様々なモダリティのセマンティック表現を調整することである。 これを実現するために、以前の手法では、視覚的な特徴を更新するためにクロスモーダルな相互作用を行うが、きめ細かい視覚的特徴を言語的特徴に統合する役割を無視する。 本稿では,画像セグメンテーション参照のためのエンドツーエンドフレームワークであるalignedformerを提案する。 我々のAlignFormerは、言語的特徴を中心埋め込みとみなし、中心埋め込みに基づいてピクセルグループ化によって関心領域を分割する。 画素テキストアライメントを実現するため,VLBA(Vision-Language Bidirectional Attention Module)を設計し,コントラスト学習を利用する。 具体的には、VLBAは、各ピクセルに意味的テキスト表現を伝播することにより視覚的特徴を高め、きめ細かい画像特徴を融合させて言語的特徴を促進する。 さらに,不明瞭な領域における画素サンプルの影響を緩和し,マルチモーダル表現の整合性を向上させるために,クロスモーダル・インスタンス・コントラッシブ・ロスを導入する。 大規模な実験により、AlignFormerはRefCOCO、RefCOCO+、RefCOCOgにおける最先端のパフォーマンスを大きなマージンで達成した。

Referring image segmentation aims to segment the image region of interest according to the given language expression, which is a typical multi-modal task. One of the critical challenges of this task is to align semantic representations for different modalities including vision and language. To achieve this, previous methods perform cross-modal interactions to update visual features but ignore the role of integrating fine-grained visual features into linguistic features. We present AlignFormer, an end-to-end framework for referring image segmentation. Our AlignFormer views the linguistic feature as the center embedding and segments the region of interest by pixels grouping based on the center embedding. For achieving the pixel-text alignment, we design a Vision-Language Bidirectional Attention module (VLBA) and resort contrastive learning. Concretely, the VLBA enhances visual features by propagating semantic text representations to each pixel and promotes linguistic features by fusing fine-grained image features. Moreover, we introduce the cross-modal instance contrastive loss to alleviate the influence of pixel samples in ambiguous regions and improve the ability to align multi-modal representations. Extensive experiments demonstrate that our AlignFormer achieves a new state-of-the-art performance on RefCOCO, RefCOCO+, and RefCOCOg by large margins.
翻訳日:2023-01-18 15:48:40 公開日:2023-01-16
# 超低温分子衝突のコヒーレント制御:共鳴の役割

Coherent Control of ultracold molecular collisions: The role of resonances ( http://arxiv.org/abs/2301.06541v1 )

ライセンス: Link先を確認
Adrien Devolder, Timur V. Tscherbul, and Paul Brumer(参考訳) 我々は,超低温分子-分子散乱のコヒーレント制御について考察する。 共鳴スペクトルを特徴付けるために、散乱断面積と反応速度の制御を研究するために、マルチチャネル量子欠陥理論に基づく基礎モデルが用いられてきた。 共鳴エネルギーに関する完全な制御が可能であることが示されているが、多くの共鳴に対する熱平均化は共鳴間の最適制御パラメータのランダム分布による反応速度の制御を著しく減少させる。 また,コヒーレント制御の程度を計測することで,直接散乱と衝突錯体形成の相対的寄与や統計体系に関する有意義な情報を抽出することができることを示した。

We consider the coherent control of ultracold molecule-molecule scattering, impacted by a dense set of rovibrational resonances. To characterize the resonance spectrum, a rudimentary model based on multichannel quantum defect theory has been used to study the control of the scattering cross section and the reaction rate. Complete control around resonance energies is shown to be possible, but thermal averaging over a large number of resonances significantly reduces the extent of control of reaction rates due to the random distribution of optimal control parameters between resonances. We show that measuring the extent of coherent control could be used to extract meaningful information about the relative contribution of direct scattering versus collision complex formation, as well as about the statistical regime.
翻訳日:2023-01-18 15:43:08 公開日:2023-01-16
# ケースベースニューラルネットワーク:時間変動と高次相互作用による生存率解析

Case-Base Neural Networks: survival analysis with time-varying, higher-order interactions ( http://arxiv.org/abs/2301.06535v1 )

ライセンス: Link先を確認
Jesse Islam, Maxime Turgeon, Robert Sladek, Sahir Bhatnagar(参考訳) ニューラルネットワークに基づく生存法は、データ駆動の共変量相互作用をモデル化することができる。 これらの手法は回帰に基づくアプローチよりも優れた予測性能をもたらすが、時間変動相互作用と複雑なベースラインハザードの両方をモデル化することはできない。 そこで本研究では,ケースベースサンプリングフレームワークとフレキシブルアーキテクチャを組み合わせた新しいアプローチとして,ケースベースニューラルネットワーク(cbnn)を提案する。 本手法は当然検閲を考慮し,メソッド固有のハイパーパラメータを必要としない。 新たなサンプリング手法とデータ拡張を用いて、時間を直接フィードフォワードニューラルネットワークに組み込む。 CBNNは、ある瞬間に発生した事象の確率を予測し、ハザード関数を推定する。 CBNNの性能を2つのシミュレーションと2つの実データアプリケーションにおける回帰とニューラルネットワークに基づく生存法と比較する。 各モデルに2つの時間依存メトリクスを報告します。 シミュレーションと実際のデータアプリケーションでは、CBNNは時間にわたってより一貫性のある予測性能を提供し、競合するニューラルネットワークアプローチよりも優れています。 指数的ハザードモデルによる単純なシミュレーションでは、CBNNは他のニューラルネットワーク手法よりも優れている。 CBNNが複雑なベースラインハザードと時間変化の相互作用の両方をモデル化する能力を強調した複雑なシミュレーションでは、CBNNは全ての競合より優れている。 最初の実データアプリケーションはcbnnがすべてのニューラルネットワークの競合を上回り、2番目の実データアプリケーションは競合性能を示している。 ケースベースサンプリングとディープラーニングを組み合わせることで、データ駆動型、時間変化による生存結果の相互作用モデリングのための、シンプルで柔軟なモデリングフレームワークを提供する。 Rパッケージはhttps://github.com/Jesse-Islam/cbnnで入手できる。

Neural network-based survival methods can model data-driven covariate interactions. While these methods have led to better predictive performance than regression-based approaches, they cannot model both time-varying interactions and complex baseline hazards. To address this, we propose Case-Base Neural Networks (CBNN) as a new approach that combines the case-base sampling framework with flexible architectures. Our method naturally accounts for censoring and does not require method specific hyperparameters. Using a novel sampling scheme and data augmentation, we incorporate time directly into a feed-forward neural network. CBNN predicts the probability of an event occurring at a given moment and estimates the hazard function. We compare the performance of CBNN to survival methods based on regression and neural networks in two simulations and two real data applications. We report two time-dependent metrics for each model. In the simulations and real data applications, CBNN provides a more consistent predictive performance across time and outperforms the competing neural network approaches. For a simple simulation with an exponential hazard model, CBNN outperforms the other neural network methods. For a complex simulation, which highlights the ability of CBNN to model both a complex baseline hazard and time-varying interactions, CBNN outperforms all competitors. The first real data application shows CBNN outperforming all neural network competitors, while a second real data application shows competitive performance. We highlight the benefit of combining case-base sampling with deep learning to provide a simple and flexible modeling framework for data-driven, time-varying interaction modeling of survival outcomes. An R package is available at https://github.com/Jesse-Islam/cbnn.
翻訳日:2023-01-18 15:42:54 公開日:2023-01-16
# 確率計量を持つ未知多様体上の固有ガウス過程

Intrinsic Gaussian Process on Unknown Manifolds with Probabilistic Metrics ( http://arxiv.org/abs/2301.06533v1 )

ライセンス: Link先を確認
Mu Niu, Zhenwen Dai, Pokman Cheung, Yizhu Wang(参考訳) 本稿では, 確率的測度(GPUM)を持つ未知多様体上の回帰に対して, 固有ガウス過程を構築するための新しい手法を提案する。 多くの実世界の応用において、低次元未知多様体を中心とする高次元データ(例えば点雲データ)に遭遇することが多い。 多様体の幾何学は一般に通常のユークリッド幾何学とは異なる。 ユークリッドガウス過程 (GPs) のような伝統的な滑らかな手法を多様体値データに適用することは、空間の幾何学を無視することで、非常に誤解を招く予測や推論につながる可能性がある。 高次元ユークリッド空間に埋め込まれた多様体は、確率的写像関数と対応する潜在空間によってよく説明できる。 ベイジアンガウス過程潜在変数モデル(BGPLVM)とリーマン幾何学を用いて未知多様体の幾何学的構造を考察する。 計量テンソルの分布は、BGPLVMを用いて学習される。 結果の多様体の境界は写像の不確かさの定量化に基づいて定義される。 確率的計量テンソルを用いて未知多様体上のブラウン運動経路をシミュレートする。 熱核はブラウン運動の遷移密度として推定され、GPUMの共分散関数として用いられる。 GPUMの応用は、スイスロール、WiFi信号の高次元実データセット、画像データ例のシミュレーション研究で説明されている。 性能はGraph Laplacian GP、Graph Matern GP、Euclidean GPと比較される。

This article presents a novel approach to construct Intrinsic Gaussian Processes for regression on unknown manifolds with probabilistic metrics (GPUM) in point clouds. In many real world applications, one often encounters high dimensional data (e.g. point cloud data) centred around some lower dimensional unknown manifolds. The geometry of manifold is in general different from the usual Euclidean geometry. Naively applying traditional smoothing methods such as Euclidean Gaussian Processes (GPs) to manifold valued data and so ignoring the geometry of the space can potentially lead to highly misleading predictions and inferences. A manifold embedded in a high dimensional Euclidean space can be well described by a probabilistic mapping function and the corresponding latent space. We investigate the geometrical structure of the unknown manifolds using the Bayesian Gaussian Processes latent variable models(BGPLVM) and Riemannian geometry. The distribution of the metric tensor is learned using BGPLVM. The boundary of the resulting manifold is defined based on the uncertainty quantification of the mapping. We use the the probabilistic metric tensor to simulate Brownian Motion paths on the unknown manifold. The heat kernel is estimated as the transition density of Brownian Motion and used as the covariance functions of GPUM. The applications of GPUM are illustrated in the simulation studies on the Swiss roll, high dimensional real datasets of WiFi signals and image data examples. Its performance is compared with the Graph Laplacian GP, Graph Matern GP and Euclidean GP.
翻訳日:2023-01-18 15:42:29 公開日:2023-01-16
# XNLI 2.0: クロスリンガル理解(XLU)におけるXNLIデータセットの改善とパフォーマンス

XNLI 2.0: Improving XNLI dataset and performance on Cross Lingual Understanding (XLU) ( http://arxiv.org/abs/2301.06527v1 )

ライセンス: Link先を確認
Ankit Kumar Upadhyay, Harsit Kumar Upadhya(参考訳) 自然言語処理システムは、実用的なモデルをトレーニングするための注釈付きデータの可用性に大きく依存している。 モデルは主に、英語のデータセットでトレーニングされる。 近年、異なる言語で作業する必要性が急激に増大するため、多言語理解において重要な進歩がもたらされている。 注目すべき点の1つは、今や多くの事前訓練された多言語モデルが存在するので、それらを言語間理解タスクに利用できることである。 言語間理解と自然言語推論を用いることで、アプリケーションがトレーニング言語を超えて広がるモデルをトレーニングすることができる。 機械翻訳の力を利用して、データセットをある言語から別の言語に翻訳する面倒な部分をスキップできる。 本研究では,Google Translate を用いた XNLI のテストおよび開発セットを含む,XNLI に含まれる14 言語すべてで MNLI データセットを再翻訳することで,元の XNLI データセットの改善に注力する。 また,15言語すべてでモデルをトレーニングし,その性能を自然言語推論のタスクで分析することで実験を行った。 スワヒリ語やウルドゥー語のような低リソース言語のパフォーマンスを英語以外の言語でトレーニングすることで改善できるかどうかを調べるために、境界を広げます。

Natural Language Processing systems are heavily dependent on the availability of annotated data to train practical models. Primarily, models are trained on English datasets. In recent times, significant advances have been made in multilingual understanding due to the steeply increasing necessity of working in different languages. One of the points that stands out is that since there are now so many pre-trained multilingual models, we can utilize them for cross-lingual understanding tasks. Using cross-lingual understanding and Natural Language Inference, it is possible to train models whose applications extend beyond the training language. We can leverage the power of machine translation to skip the tiresome part of translating datasets from one language to another. In this work, we focus on improving the original XNLI dataset by re-translating the MNLI dataset in all of the 14 different languages present in XNLI, including the test and dev sets of XNLI using Google Translate. We also perform experiments by training models in all 15 languages and analyzing their performance on the task of natural language inference. We then expand our boundary to investigate if we could improve performance in low-resource languages such as Swahili and Urdu by training models in languages other than English.
翻訳日:2023-01-18 15:42:07 公開日:2023-01-16
# 量子物理学と生物学: 局所波動関数アプローチ

Quantum physics and biology: the local wavefunction approach ( http://arxiv.org/abs/2301.06516v1 )

ライセンス: Link先を確認
George Ellis(参考訳) 宇宙の1つの直線的に進化する波動関数は、我々の周りで見られる全ての非線形性に繋がるだろうか? この提案は先例がないように思える。 現実の世界では、局所的な波動関数だけが存在し、猫や脳のような同様の巨視的な物体には波動関数は存在しないと主張する。 文脈波動関数の崩壊は、古典的マクロレベルが量子事象と生物学的出現のコンテキストを提供するコペンハーゲン解釈の防御可能なバージョンをもたらす。 複素性は、基底となる線形物理学から論理分岐を生じさせる適応的なモジュラー階層構造によって生じる。 各創発レベルは、基礎となる古典・量子物理学と一貫して起こる上向きの因果関係と下向きの因果関係によって因果的に効果的である。 生物学的文脈における量子化学のアプローチはこの局所波動関数像に適合する。

Is there a single linearly evolving Wave Function of the Universe that is able to lead to all the non-linearities we see around us? This proposal seems a priori highly implausible. I claim that instead, in the real Universe, only local wave functions exist, and there is no wave function for a cat or similar macroscopic objects such as a brain. Contextual wave function collapse leads to a defensible version of the Copenhagen interpretation, where classical macro levels provide the context for quantum events and biological emergence. Complexity arises via adaptive modular hierarchical structures that enable logical branching to emerge from the underlying linear physics. Each emergent level is causally effective because of the confluence of upwards and downwards causation that takes place consistently with the underlying classical and quantum physics. Quantum chemistry approaches in biological contexts fit this local wavefunction picture.
翻訳日:2023-01-18 15:41:49 公開日:2023-01-16
# aharonov-bohm量子干渉実験の運動量--古典物理学の観点から

Wherein lies the momentum in Aharonov-Bohm quantum interference experiment -- A classical physics perspective ( http://arxiv.org/abs/2301.06502v1 )

ライセンス: Link先を確認
Ashok K. Singal(参考訳) 二重スリット実験であるアハラノフ・ボーム実験では、2つのスリットを通過する電子のコヒーレントビームが観察画面の干渉パターンを形成する。 しかし、2つの電子ビーム間のスリットの後方に長くて薄いソレノイドが導入されたとき、干渉パターンのシフトによって示されるように、それらの間に余分な位相差が現れる。 これは、ソレノイドの外側、ビームの位置に磁場が存在しないとしても起こる。 このミステリー効果は、電磁運動量によるもので、電磁界の外側に磁場が存在しないときでも、電流のソレノイドに起因するベクトルポテンシャルであるどちらのビームの位置にも存在することに起因する。 最初の実験的な確認はすぐに行われ、その後、巧妙な実験装置を用いて十分に検証され、観測された効果が本物であることをほとんど疑わなかった。 しかし理論的には、この絵はそれほど明確ではなく、少なくとも古典的電磁気学の主張の下では、運動量の存在の十分な物理的説明は半世紀以上前のアイデアの始まり以来、まだ失われている。 それはまだ謎のままで、ポテンシャルがシステムの電磁モーメントをいかに生み出すかという謎のままです。 ここでは,電流伝達電荷のドリフト速度と,干渉電子の電界における非局在ポテンシャルエネルギーと同値な質量の積に微妙な運動量が存在することが示され,古典的観点からは系の線形運動量である。 電子の干渉するビームの間の余分な位相差を通じて反射される、この、ピンポイントのさらなる運動量であり、古典的な物理学的な視点から見ると、系の中において長い間望まれていた電磁運動量の存在が示される。

In the Aharonov-Bohm setup, a double-slit experiment, coherent beams of electrons passing through two slits form an interference pattern on the observing screen. However, when a long but thin solenoid of current is introduced behind the slits between the two electron beams, an extra phase difference between them appears, as shown by a shift in the interference pattern. This happens even though there is no magnetic field outside the solenoid, at the location of the beams. This mysterious effect, purportedly arises owing to an electromagnetic momentum, attributed to the presence at the location of either beam, a vector potential due to the solenoid of current even when there exists no magnetic field outside the solenoid. The first experimental confirmation came soon and It has since been amply verified using clever experimental setups, leaving hardly any doubts that the observed effect is real. However, on the theoretical side the picture is not so clear and a satisfactory physical explanation of the existence of momentum, at least under the aegis of classical electromagnetism, is still missing since inception of the idea more than half a century back. It has remained a puzzle, how just potential can give rise to an electromagnetic momentum in a system. We here show that a subtle momentum can be seen to lie in the product of the drift velocities of the current carrying charges and the mass equivalent of their non-localized potential energies in the electric field of the interfering electrons, which manifests, from a classical point of view, a linear momentum in the system. It is this hard-to-pinpoint, additional momentum, reflected through an extra phase difference between the interfering beams of electrons, which exhibits from a classical physics perspective, the presence of an elusive, long sought-after electromagnetic momentum in the system.
翻訳日:2023-01-18 15:41:34 公開日:2023-01-16
# 光管による高帯域近距離情報伝送

High-bandwidth Close-Range Information Transport through Light Pipes ( http://arxiv.org/abs/2301.06496v1 )

ライセンス: Link先を確認
Joowon Lim, Jannes Gladrow, Douglas Kelly, Greg O'Shea, Govert Verkes, Ioan Stefanovici, Sebastian Nowozin, and Benn Thomsen(参考訳) マルチモードファイバによる伝播後の画像検索は,光を包み込み,コンパクトなシステムで効率的に移動する能力から注目されている。 本稿では,最大エントロピー(データ)画像を送信し,サブメーター距離を超越した情報伝送を最大化するための一般的な情報理論フレームワークを提案する。 この目的のために、ミリサイズの正方形導波路を用いて、メガピクセル8ビット空間光変調器を撮像する。 したがって、データは8ビット値(シンボル)の2次元配列として表現される。 100000のシンボルを送信するには、トランスミッションマトリクスアプローチ以上のイノベーションが必要である。 ディープニューラルネットワークは、最近画像の検索に利用されているが、小さな(シンボルの数)と自然な(エントロピーの低い)画像に限られている。 帯域最適化ホモダイン検出器と実験装置のディジタル双対とu-netからなる可微分ハイブリッドニューラルネットワークを組み合わせることで情報伝達を最大化する。 デジタル双生児の場合、異なるモードベースの双生児と異なる線ベースの双生児を実装、比較する。 重要なことに、後者はトレーニング中に製造関連設定の不完全さに適応できる。 我々のパイプラインは、相互情報推定器に基づいて達成可能な情報ページサイズを最大化しながら、デジタル入力画像の復元のためにエンドツーエンドで訓練されている。 平均記号あたり1.7ビットの最大66kBの検索を0.3 - 3.4ビットの範囲で示す。

Image retrieval after propagation through multi-mode fibers is gaining attention due to their capacity to confine light and efficiently transport it over distances in a compact system. Here, we propose a generally applicable information-theoretic framework to transmit maximal-entropy (data) images and maximize the information transmission over sub-meter distances, a crucial capability that allows optical storage applications to scale and address different parts of storage media. To this end, we use millimeter-sized square optical waveguides to image a megapixel 8-bit spatial-light modulator. Data is thus represented as a 2D array of 8-bit values (symbols). Transmitting 100000s of symbols requires innovation beyond transmission matrix approaches. Deep neural networks have been recently utilized to retrieve images, but have been limited to small (thousands of symbols) and natural looking (low entropy) images. We maximize information transmission by combining a bandwidth-optimized homodyne detector with a differentiable hybrid neural-network consisting of a digital twin of the experiment setup and a U-Net. For the digital twin, we implement and compare a differentiable mode-based twin with a differentiable ray-based twin. Importantly, the latter can adapt to manufacturing-related setup imperfections during training which we show to be crucial. Our pipeline is trained end-to-end to recover digital input images while maximizing the achievable information page size based on a differentiable mutual-information estimator. We demonstrate retrieval of 66 kB at maximum with 1.7 bit per symbol on average with a range of 0.3 - 3.4 bit.
翻訳日:2023-01-18 15:41:02 公開日:2023-01-16
# CRYPTEXT:野生における人文文摂動のデータベースとインタラクティブツールキット

CRYPTEXT: Database and Interactive Toolkit of Human-Written Text Perturbations in the Wild ( http://arxiv.org/abs/2301.06494v1 )

ライセンス: Link先を確認
Thai Le, Ye Yiran, Yifan Hu, Dongwon Lee(参考訳) インターネット上のユーザ生成テキストコンテンツは、しばしば騒々しく、誤ったものであり、文法の正しい形式ではない。 事実、一部のオンラインユーザーは、注意深く混乱したテキストを通じて、特に議論を呼んでいる話題(政治、ワクチンの委任など)や虐待的な文脈(サイバーいじめ、ヘイトスピーチなど)において、オンラインで意見を表明することを選んだ。 しかしながら、我々の知る限りでは、これらのオンラインの ``human-written' 摂動を探索するフレームワークは存在しない(アルゴリズム生成摂動とは対照的に)。 そこで我々は,CRYPTEXTと呼ばれる対話型システムを導入する。 CRYPTEXTは、データ集約型アプリケーションで、データベースと、人間の手書きの摂動を抽出し、操作するためのツールをユーザに提供する。 具体的には、CRYPTEXTはテキストの検索、パーターブ、正規化(de-perturb)を支援する。 CRYPTEXTはまた、オンラインでテキストの摂動を監視し分析するためのインタラクティブインターフェースを提供する。 簡単なデモビデオは、https://youtu.be/8WT3G8xjIoIで公開されている。

User-generated textual contents on the Internet are often noisy, erroneous, and not in correct forms in grammar. In fact, some online users choose to express their opinions online through carefully perturbed texts, especially in controversial topics (e.g., politics, vaccine mandate) or abusive contexts (e.g., cyberbullying, hate-speech). However, to the best of our knowledge, there is no framework that explores these online ``human-written" perturbations (as opposed to algorithm-generated perturbations). Therefore, we introduce an interactive system called CRYPTEXT. CRYPTEXT is a data-intensive application that provides the users with a database and several tools to extract and interact with human-written perturbations. Specifically, CRYPTEXT helps look up, perturb, and normalize (i.e., de-perturb) texts. CRYPTEXT also provides an interactive interface to monitor and analyze text perturbations online. A short demo video is available at: https://youtu.be/8WT3G8xjIoI
翻訳日:2023-01-18 15:40:39 公開日:2023-01-16
# Simplexオートエンコーダ

Simplex Autoencoders ( http://arxiv.org/abs/2301.06489v1 )

ライセンス: Link先を確認
Aymene Mohammed Bouayed and David Naccache(参考訳) プライバシー上の懸念から、合成データ生成はますます重要になっている。 Autoencoderベースのアプローチはこの目的のために広く使われているが、潜在空間からのサンプリングは困難である。 現在、混合モデルはこれらの空間から最も効率的なサンプリング方法である。 本研究では,オートエンコーダの潜在空間をシンプレックスとしてモデル化し,混合モデルにおける成分数を決定するための新しいヒューリスティックな手法を提案する。 このヒューリスティックはクラスの数とは独立であり、同等の結果を生み出す。 また,潜在空間のコンパクト性を利用して,確率質量関数に基づくサンプリング手法を提案する。 我々は,MNIST,CIFAR-10,Celebaの3つのベンチマークデータセットに対して,合成データセットに対するアプローチを評価し,その性能を示す。 提案手法は,MNIST,CIFAR-10,Celebaデータセット上で4.29,13.55,11.90の画像生成を行う。 それらのデータセットにおける最良のAE FID結果は、それぞれ6.3、85.3、35.6である。 しかしながら、AEは関連するデータセット上で最高のパフォーマンスのアルゴリズムではなく、現在すべてのFIDレコードがGANによって保持されている。 CIFARやCelebaでは、GANよりもパフォーマンスは良くありませんが、MNISTデータセットの現在のGANが保持する記録よりも、(0.21の)無視できない改善を実現しています。

Synthetic data generation is increasingly important due to privacy concerns. While Autoencoder-based approaches have been widely used for this purpose, sampling from their latent spaces can be challenging. Mixture models are currently the most efficient way to sample from these spaces. In this work, we propose a new approach that models the latent space of an Autoencoder as a simplex, allowing for a novel heuristic for determining the number of components in the mixture model. This heuristic is independent of the number of classes and produces comparable results. We also introduce a sampling method based on probability mass functions, taking advantage of the compactness of the latent space. We evaluate our approaches on a synthetic dataset and demonstrate their performance on three benchmark datasets: MNIST, CIFAR-10, and Celeba. Our approach achieves an image generation FID of 4.29, 13.55, and 11.90 on the MNIST, CIFAR-10, and Celeba datasets, respectively. The best AE FID results to date on those datasets are respectively 6.3, 85.3 and 35.6 we hence substantially improve those figures (the lower is the FID the better). However, AEs are not the best performing algorithms on the concerned datasets and all FID records are currently held by GANs. While we do not perform better than GANs on CIFAR and Celeba we do manage to squeeze-out a non-negligible improvement (of 0.21) over the current GAN-held record for the MNIST dataset.
翻訳日:2023-01-18 15:40:22 公開日:2023-01-16
# 会話型オーストリアドイツ語の自動音声認識におけるkaldiの利用

Using Kaldi for Automatic Speech Recognition of Conversational Austrian German ( http://arxiv.org/abs/2301.06475v1 )

ライセンス: Link先を確認
Julian Linke, Saskia Wepner, Gernot Kubin and Barbara Schuppler(参考訳) 対話システムがより対話的・社会的になるにつれて、会話音声の正確な自動音声認識(asr)も重要性を増している。 これは、短時間で自発的なタスク指向の対話から、カジュアルな対面会話の複雑さに焦点を移す。 しかし、このような会話の収集とアノテーションは時間を要するプロセスであり、この特定の話し方ではデータは不十分である。 本稿では,オーストリアドイツ語の読み書き実験を対象とするASR実験について述べる。 対話型ドイツ語では限られたリソースしか持たないが、発音特性に関しては話者間で大きなバリエーションがあるため、知識ベースの発音辞書を組み込むことにより、カルディベースのASRシステムを改善するとともに、各語彙エントリの発音変種数を制限する異なるデータベースの手法を模索する。 我々はドイツ語読み上げ音声で0.4%、会話音声で48.5%のWERを達成する。 言語モデルに使用するデータのサイズを近似的に増加させるよりも,我々の最高の発音レキシコンを使用することで,同様の高い性能が得られることがわかった。 360%から760%。 この結果から,低リソースシナリオでは,知識に基づくアプローチが成功し,効率的な手法であることが示唆された。

As dialogue systems are becoming more and more interactional and social, also the accurate automatic speech recognition (ASR) of conversational speech is of increasing importance. This shifts the focus from short, spontaneous, task-oriented dialogues to the much higher complexity of casual face-to-face conversations. However, the collection and annotation of such conversations is a time-consuming process and data is sparse for this specific speaking style. This paper presents ASR experiments with read and conversational Austrian German as target. In order to deal with having only limited resources available for conversational German and, at the same time, with a large variation among speakers with respect to pronunciation characteristics, we improve a Kaldi-based ASR system by incorporating a (large) knowledge-based pronunciation lexicon, while exploring different data-based methods to restrict the number of pronunciation variants for each lexical entry. We achieve best WER of 0.4% on Austrian German read speech and best average WER of 48.5% on conversational speech. We find that by using our best pronunciation lexicon a similarly high performance can be achieved than by increasing the size of the data used for the language model by approx. 360% to 760%. Our findings indicate that for low-resource scenarios -- despite the general trend in speech technology towards using data-based methods only -- knowledge-based approaches are a successful, efficient method.
翻訳日:2023-01-18 15:39:58 公開日:2023-01-16
# 量子系の確率的単純度へのマッピング

Mapping of Quantum Systems to the Probability Simplex ( http://arxiv.org/abs/2301.06572v1 )

ライセンス: Link先を確認
D. D. Yavuz and A. Yadav(参考訳) まず、最も単純な量子系(すなわち量子ビット)から始め、2次元ヒルベルト空間における量子状態の8次元確率空間におけるベクトルへの1対1の写像について議論する。 次に、量子状態、特にアダマールゲートと単一量子位相ゲートの通常の変換が、確率単純性において写像ベクトルの適切な変換によってどのように達成されるかを示す。 simplexへのマッピングとsimplexにおける変換の両方の重要な特徴は、それらが線型でないことである。 これらの結果は、立方体の初期状態と時間発展の両方を8次元の確率素数(または3つの古典的確率的ビット)で完全に捉えることができることを示している。 次に、多部量子システムとその確率単純度へのマッピングについて論じる。 ここでの鍵となるツールは、複数の量子系と複数の確率空間を組み合わせた同じテンソル積構造である。 具体的には,2ビット制御ノット(CNOT)ゲートのアナログをシンプルに実装する方法を明確に示す。 n$ qubits の量子力学が 3n$ の古典的確率的ビットを持つ確率的シンプレックスでどれだけキャプチャできるかは、未解決の問題である。 最後に、任意の次元のヒルベルト空間において)波動関数に対するシュロディンガー方程式の等価性についても論じ、単純体のベクトルの時間発展を規定する。

We start with the simplest quantum system (a two-level system, i.e., a qubit) and discuss a one-to-one mapping of the quantum state in a two-dimensional Hilbert space to a vector in an eight dimensional probability space (probability simplex). We then show how the usual transformations of the quantum state, specifically the Hadamard gate and the single-qubit phase gate, can be accomplished with appropriate transformations of the mapped vector in the probability simplex. One key defining feature of both the mapping to the simplex and the transformations in the simplex is that they are not linear. These results show that both the initial state and the time evolution of a qubit can be fully captured in an eight dimensional probability simplex (or equivalently using three classical probabilistic bits). We then discuss multi-partite quantum systems and their mapping to the probability simplex. Here, the key tool is the identical tensor product structure of combining multiple quantum systems as well as multiple probability spaces. Specifically, we explicitly show how to implement an analog of the two-qubit controlled-not (CNOT) gate in the simplex. We leave it an open problem how much the quantum dynamics of $N$ qubits can be captured in a probability simplex with $3N$ classical probabilistic bits. Finally, we also discuss the equivalent of the Schrodinger's equation for the wavefunction (in a Hilbert space of arbitrary dimension), which dictates the time evolution of the vectors in the simplex.
翻訳日:2023-01-18 15:33:46 公開日:2023-01-16
# 病院間テキストマイニングによる臨床研究 : 集中医療における社会的要因とコードステータスとの関連

Cross-institution text mining to uncover clinical associations: a case study relating social factors and code status in intensive care medicine ( http://arxiv.org/abs/2301.06570v1 )

ライセンス: Link先を確認
Madhumita Sushil, Atul J. Butte, Ewoud Schuit, Maarten van Smeden, Artuur M. Leeuwenberg(参考訳) 目的: 電子カルテに埋め込まれた臨床記録のテキストマイニングは, 患者の特徴を抽出し, 関連する健康状態との関連性を評価するためにますます利用されている。 テキストマイニングモデルの開発に必要な手作業のデータラベリングが資源集約的であることから,外部機関で開発された既製テキストマイニングモデルと限られた内部ラベリングデータを用いて,研究変数を確実に抽出して関連研究を行うことができるか検討した。 資料と方法: 集中治療患者の退院報告から社会的要因を抽出するために, 施設内データと施設外データを組み合わせた複数のテキストマイニングモデルを開発した。 その後, 社会的要因とDo-not-resuscitate/inubate符号の関連性を検討した。 結果: 5例中3例において,手動ラベルデータに基づく関連関係とテキストマインド・ソーシャル・ファクターとの有意差がみられた。 手動ラベル付き内部データを用いた外部機関テキストマイニングモデルの採用により、f1-scoreが高いが有意義な関連はないモデルが誕生した。 議論: テキストマイニングは、より大きなサンプルへのスケール分析を促進し、より多くの関連の発見につながったが、その推定は信頼性に欠ける可能性がある。 より優れたテキストマイニングモデル、理想的にはより大きな手動ラベル付きデータセットで確認する必要がある。 結論: 現在使用されているテキストマイニングモデルは, 関連研究において十分な精度は得られなかった。 施設内データを用いたモデル適応では, 評価は改善しなかった。 医学研究におけるテキストマイニングの信頼性確保のためには,さらなる研究が必要である。

Objective: Text mining of clinical notes embedded in electronic medical records is increasingly used to extract patient characteristics otherwise not or only partly available, to assess their association with relevant health outcomes. As manual data labeling needed to develop text mining models is resource intensive, we investigated whether off-the-shelf text mining models developed at external institutions, together with limited within-institution labeled data, could be used to reliably extract study variables to conduct association studies. Materials and Methods: We developed multiple text mining models on different combinations of within-institution and external-institution data to extract social factors from discharge reports of intensive care patients. Subsequently, we assessed the associations between social factors and having a do-not-resuscitate/intubate code. Results: Important differences were found between associations based on manually labeled data compared to text-mined social factors in three out of five cases. Adopting external-institution text mining models using manually labeled within-institution data resulted in models with higher F1-scores, but not in meaningfully different associations. Discussion: While text mining facilitated scaling analyses to larger samples leading to discovering a larger number of associations, the estimates may be unreliable. Confirmation is needed with better text mining models, ideally on a larger manually labeled dataset. Conclusion: The currently used text mining models were not sufficiently accurate to be used reliably in an association study. Model adaptation using within-institution data did not improve the estimates. Further research is needed to set conditions for reliable use of text mining in medical research.
翻訳日:2023-01-18 15:33:22 公開日:2023-01-16
# Ankh:最適化されたタンパク質言語モデルが汎用モデリングをアンロック

Ankh: Optimized Protein Language Model Unlocks General-Purpose Modelling ( http://arxiv.org/abs/2301.06568v1 )

ライセンス: Link先を確認
Ahmed Elnaggar, Hazem Essam, Wafaa Salah-Eldin, Walid Moustafa, Mohamed Elkerdawy, Charlotte Rochereau, and Burkhard Rost(参考訳) タンパク質言語モデル(PLM)のスケールアップとは対照的に,タンパク質特異的最適化による性能向上を目指す。 言語モデルのサイズと学習表現の豊かさの比例性は検証されるが、我々はアクセシビリティを優先し、データ効率、コスト削減、知識誘導最適化の道を追求する。 マスキング,アーキテクチャ,事前学習など20以上の実験を通じて,タンパク質特異的な実験から生命の言語を最適に解釈するモデルの構築へと洞察を導き出す。 我々は,googleのtpu-v4でトレーニングされた最初の汎用plmであるankhを提案する。 我々は、ankhが優れた構造と機能ベンチマークの代表的な範囲を提供する。 さらに, タンパク質の進化的保存・変異傾向の学習に成功し, 重要な構造的機能的特性を維持しつつ, 機能的多様性を導入した高Nおよび1-N入力データスケールのタンパク質変異生成解析を行った。 我々は,達成可能な資源による研究イノベーションへのアクセシビリティ向上に力を注いでいる。

As opposed to scaling-up protein language models (PLMs), we seek improving performance via protein-specific optimization. Although the proportionality between the language model size and the richness of its learned representations is validated, we prioritize accessibility and pursue a path of data-efficient, cost-reduced, and knowledge-guided optimization. Through over twenty experiments ranging from masking, architecture, and pre-training data, we derive insights from protein-specific experimentation into building a model that interprets the language of life, optimally. We present Ankh, the first general-purpose PLM trained on Google's TPU-v4 surpassing the state-of-the-art performance with fewer parameters (<10% for pre-training, <7% for inference, and <30% for the embedding dimension). We provide a representative range of structure and function benchmarks where Ankh excels. We further provide a protein variant generation analysis on High-N and One-N input data scales where Ankh succeeds in learning protein evolutionary conservation-mutation trends and introducing functional diversity while retaining key structural-functional characteristics. We dedicate our work to promoting accessibility to research innovation via attainable resources.
翻訳日:2023-01-18 15:32:34 公開日:2023-01-16
# 地形型LiDARデータによる完全自動・スケーラブルな表面水マッピング

A Fully Automated and Scalable Surface Water Mapping with Topographic Airborne LiDAR Data ( http://arxiv.org/abs/2301.06567v1 )

ライセンス: Link先を確認
Hunsoo Song, Jinha Jung(参考訳) 表面水の信頼性と正確な高解像度マップは、環境と人間の活動の間の影響と関係を理解するのに役立つモデルへの重要な入力である。 リモートセンシング技術の進歩は、人々の日常生活と密接な関係を持ち、主に人為的な圧力によって影響を受ける非常に小さな水域をマッピングする可能性を開く。 しかし、高分解能の多様な景観にあるあらゆる種類の水域でうまく機能する堅牢でスケーラブルな手法はまだ開発されていない。 本稿では, 様々な景観において, 表面水体を非常に微細なスケールまで正確に抽出する手法を提案する。 光学的イメージベース法とは異なり、提案手法は表面水が平らであり、重力は常に液体分子を降ろすという強固な仮定を生かしている。 この自然法則に基づいて, 空中LiDARデータのみを用いて, 高度を含む高精度で高分解能な水域を全自動で抽出する手法を提案する。 大規模 (2,500$km^{2}$) および多様な景観(都市, 沿岸, 山岳地域) による大規模な実験により, 各種表層水に対するサイト固有パラメータチューニングを伴わずに正確な結果が得られることを確認した。 提案手法は,水と地形の両方を含む全3次元地形を,初めて点雲のみを用いて,自動でスケーラブルな高分解能マッピングを可能にする。 持続的でレジリエントな環境を構築する上で,私たちの作業がより効果的なソリューションに結びつくことを期待して,コードを一般向けに公開します。

Reliable and accurate high-resolution maps of surface waters are critical inputs to models that help understand the impacts and relationships between the environment and human activities. Advances in remote sensing technology have opened up the possibility of mapping very small bodies of water that are closely related to people's daily lives and are mostly affected by anthropogenic pressures. However, a robust and scalable method that works well for all types of water bodies located in diverse landscapes at high-resolution has yet to be developed. This paper presents a method that can accurately extract surface water bodies up to a very fine scale in a wide variety of landscapes. Unlike optical image-based methods, the proposed method exploits the robust assumption that surface water is flat as gravity always pulls liquid molecules down. Based on this natural law, the proposed method extracts accurate, high-resolution water bodies including their elevations in a fully automated manner using only airborne LiDAR data. Extensive experiments with large ($\approx$ 2,500$km^{2}$) and diverse landscapes (urban, coastal, and mountainous areas) confirmed that our method can generate accurate results without site-specific parameter tunings for varied types of surface water. The proposed method enables an automated, scalable high-resolution mapping of a full 3D topography that includes both water and terrain, using only point clouds for the first time. We will release the code to the public in the hope that our work would lead to more effective solutions to help build a sustainable and resilient environment.
翻訳日:2023-01-18 15:32:04 公開日:2023-01-16
# 球面上のスピノルBECのランプソリトンによる実・順序パラメータ空間の巻線

Winding real and order-parameter spaces via lump solitons of spinor BEC on sphere ( http://arxiv.org/abs/2301.06556v1 )

ライセンス: Link先を確認
Yan He and Chih-Chun Chien(参考訳) 球殻上のスピノルbecの3つの凝縮波動関数は、実空間を球面幾何学とともに秩序パラメータ空間に写像し、塊ソリトンと呼ばれる位相的励起をもたらす。 写像のホモトピーは、2つの空間の間の包み込みを数える量子化された巻数を持つ塊ソリトンを内包する。 エネルギー汎関数を最小化する非線形結合方程式に対するいくつかのランプ-ソリトン解を提案する。 異なる巻数を持つ塊ソリトンのエネルギーは、異なる巻数を持つ塊の共存と、高い巻数を持つ塊ソリトンを複数の下巻に分解する利点の欠如を示している。 低温原子実験で予測が検証可能であることから、考えられる意味が議論されている。

The three condensate wavefunctions of a spinor BEC on a spherical shell maps the real space to the order-parameter space also with a spherical geometry, giving rise to topological excitations called lump solitons. The homotopy of the mapping endows the lump solitons with quantized winding numbers counting the wrapping between the two spaces. We present several lump-soliton solutions to the nonlinear coupled equations minimizing the energy functional. The energies of the lump solitons with different winding numbers indicate coexistence of lumps with different winding numbers and a lack of advantage to break a higher-winding lump soliton into multiple lower-winding ones. Possible implications are discussed since the predictions are testable in cold-atom experiments.
翻訳日:2023-01-18 15:31:37 公開日:2023-01-16
# 誤差関連電位変動:分類と伝達性への影響を探る

Error-related Potential Variability: Exploring the Effects on Classification and Transferability ( http://arxiv.org/abs/2301.06555v1 )

ライセンス: Link先を確認
Benjamin Poole and Minwoo Lee(参考訳) 脳-コンピューターインタフェース(bci)は、エラー認識などの認知過程の自動検出のために、脳から外部への直接通信を可能にする。 エラー関連電位(ErrPs)は、誤った事象を犯したり観察したりする際に引き起こされる特定の脳信号である。 しかし、脳と記録装置のノイズ特性のため、errpは、他の脳信号、生物学的ノイズ、外部ノイズの分類と組み合わせられ、errpの分類が非自明な問題となるため、インスタンスによって異なる。 近年の研究では、ErrPの変化に寄与する認識、実施、予測可能性などの認知過程が明らかにされている。 本稿では,与えられたタスクに対する認識と実施のレベルを変化させることにより,異なるErrP変動データセットに基づいて学習した際の分類器の伝達性能について検討する。 特に、類似した異なるタスクによって引き起こされた場合、観察的およびインタラクティブなerrpカテゴリ間の転送について検討する。 実験結果はデータの観点からerrp転送可能性問題の探索的解析を提供する。

Brain-Computer Interfaces (BCI) have allowed for direct communication from the brain to external applications for the automatic detection of cognitive processes such as error recognition. Error-related potentials (ErrPs) are a particular brain signal elicited when one commits or observes an erroneous event. However, due to the noisy properties of the brain and recording devices, ErrPs vary from instance to instance as they are combined with an assortment of other brain signals, biological noise, and external noise, making the classification of ErrPs a non-trivial problem. Recent works have revealed particular cognitive processes such as awareness, embodiment, and predictability that contribute to ErrP variations. In this paper, we explore the performance of classifier transferability when trained on different ErrP variation datasets generated by varying the levels of awareness and embodiment for a given task. In particular, we look at transference between observational and interactive ErrP categories when elicited by similar and differing tasks. Our empirical results provide an exploratory analysis into the ErrP transferability problem from a data perspective.
翻訳日:2023-01-18 15:31:22 公開日:2023-01-16
# 一般確率論における状態の完全識別性の任意の構造の実現

Realization of an arbitrary structure of perfect distinguishability of states in general probability theory ( http://arxiv.org/abs/2301.06553v1 )

ライセンス: Link先を確認
Mih\'aly Weiner(参考訳) s_1,s_2,\ldots s_n$ を一般確率論の状態とし、$\mathcal A$ を指標のすべての部分集合の集合 $H \subset [n]\equiv\{1,2,\ldots n\}$ とする。 H\in \mathcal A$ と $L \subset H$ であるなら、$L\in \mathcal A$ である。言い換えれば、$\mathcal A$ は $[n]$ のインデックスの集合上のいわゆる $\textit{independence system}$ である。 本稿では,$[n]$ のすべての独立系をこのような方法で実現可能であることを示す。

Let $s_1,s_2,\ldots s_n$ be states of a general probability theory, and $\mathcal A$ be the set of all subsets of indices $H \subset [n]\equiv\{1,2,\ldots n\}$ such that the states $(s_j)_{j\in H}$ are jointly perfectly distinguishable. All subsets with a single element are of course in $\mathcal A$, and since smaller collections are easier to distinguish, if $H\in \mathcal A$ and $L \subset H$ then $L\in \mathcal A$; in other words, $\mathcal A$ is a so-called $\textit{independence system}$ on the set of indices $[n]$. In this paper it is shown that every independence system on $[n]$ can be realized in the above manner.
翻訳日:2023-01-18 15:31:07 公開日:2023-01-16
# 線形光学における安定化器形式とベル状態判別への応用

Stabilizer formalism in linear optics and application to Bell-state discrimination ( http://arxiv.org/abs/2301.06551v1 )

ライセンス: Link先を確認
Tomohiro Yamazaki, Rikizo Ikuta, and Takashi Yamamoto(参考訳) 本稿では, 線形光回路を量子回路の安定化形式に類似して解析する枠組みを提案し, 状態判別に関する計算式を効率的に提供する。 したがって、線形光学と単光子を用いたベル状態判別法を解析する。 アンシラ光子の増加に伴い、ベル状態判別の成功確率は最大で$\frac{403}{512} \simeq 0.787$で$28$のアンシラ光子となる。 対照的に、対応する2量子ビット測定は漸近的に最大エンタングリング測定に近づく。

We propose a framework to analyze linear optical circuits based on an analogy with stabilizer formalism in quantum circuits, which provides efficiently computable formulas related to state discriminations. Hence, we analyze a Bell-state discrimination scheme with linear optics and ancillary single photons. With an increasing number of ancilla photons, the success probability of Bell-state discrimination has a maximum of $\frac{403}{512} \simeq 0.787$ at $28$ ancilla photons. By contrast, the corresponding two-qubit measurement asymptotically approaches a maximally entangling measurement.
翻訳日:2023-01-18 15:30:48 公開日:2023-01-16
# 非感覚の区別:仮想アシスタントのスコープ外検出

Distinguish Sense from Nonsense: Out-of-Scope Detection for Virtual Assistants ( http://arxiv.org/abs/2301.06544v1 )

ライセンス: Link先を確認
Cheng Qian, Haode Qi, Gengyu Wang, Ladislav Kunc, Saloni Potdar(参考訳) Conversational AIソリューションにおけるOOS(Out of Scope)検出は、エンドユーザクエリが理解できない場合に、チャットボットが会話を優雅に処理することを可能にする。 クエリをドメイン外として正確にタグ付けすることは、チャットボットがトレーニング済みの既存のトピックとセマンティックオーバーラップしたトピックを処理できないシナリオでは特に難しい。 我々は,仮想アシスタントの現実的な展開において,標準的なOOS検出方法よりも優れた,シンプルで効果的なOOS検出手法を提案する。 仮想アシスタントをトレーニングし,大規模にデプロイするためのクラウドプラットフォームソリューションの設計と展開について検討する。 さらに、実世界のシナリオを再現し、オフラインおよびオンライン評価指標を用いて、様々な設定で包括的な結果を示すデータセットのコレクションを提案する。

Out of Scope (OOS) detection in Conversational AI solutions enables a chatbot to handle a conversation gracefully when it is unable to make sense of the end-user query. Accurately tagging a query as out-of-domain is particularly hard in scenarios when the chatbot is not equipped to handle a topic which has semantic overlap with an existing topic it is trained on. We propose a simple yet effective OOS detection method that outperforms standard OOS detection methods in a real-world deployment of virtual assistants. We discuss the various design and deployment considerations for a cloud platform solution to train virtual assistants and deploy them at scale. Additionally, we propose a collection of datasets that replicates real-world scenarios and show comprehensive results in various settings using both offline and online evaluation metrics.
翻訳日:2023-01-18 15:30:41 公開日:2023-01-16
# データ駆動符号化 : クープマン作用素の新しい数値計算法

Data-Driven Encoding: A New Numerical Method for Computation of the Koopman Operator ( http://arxiv.org/abs/2301.06542v1 )

ライセンス: Link先を確認
Jerry Ng, Haruhiko Harry Asada(参考訳) 本稿では,直接符号化(DE)式に基づくクープマン線形モデルを構築するためのデータ駆動手法を提案する。 一般的な方法である動的モード分解(Dynamic Mode Decomposition, DMD)とその拡張は、人口密度の高いデータに対して偏りを示す最小二乗推定に基づいている。 可観測関数を持つ非線形状態遷移関数の内部積からなるde公式は、この偏りのある推定問題を引き起こしないため、dmdの望ましい代替となる。 しかし、元のDE式は非線形状態方程式の知識を必要とするが、多くの実用的な応用では利用できない。 本稿では,非線形力学系から取得したデータから内部積を計算するkoopman演算子のデータ駆動符号化(dde)にde公式を拡張したものである。 内部積の計算に有効なアルゴリズムが提示され、それらの真の値への収束が証明される。 拡張MDと比較してDDEの有効性を検証する数値実験を行った。 実験はDDEのデータ分布と収束特性の堅牢性を示し、追加のサンプル点による精度の向上を保証した。 さらに、DDEをクープマン演算子の深層学習に適用し、予測精度をさらに向上させる。

This paper presents a data-driven method for constructing a Koopman linear model based on the Direct Encoding (DE) formula. The prevailing methods, Dynamic Mode Decomposition (DMD) and its extensions are based on least squares estimates that can be shown to be biased towards data that are densely populated. The DE formula consisting of inner products of a nonlinear state transition function with observable functions does not incur this biased estimation problem and thus serves as a desirable alternative to DMD. However, the original DE formula requires knowledge of the nonlinear state equation, which is not available in many practical applications. In this paper, the DE formula is extended to a data-driven method, Data-Driven Encoding (DDE) of Koopman operator, in which the inner products are calculated from data taken from a nonlinear dynamic system. An effective algorithm is presented for the computation of the inner products, and their convergence to true values is proven. Numerical experiments verify the effectiveness of DDE compared to Extended DMD. The experiments demonstrate robustness to data distribution and the convergent properties of DDE, guaranteeing accuracy improvements with additional sample points. Furthermore, DDE is applied to deep learning of the Koopman operator to further improve prediction accuracy.
翻訳日:2023-01-18 15:30:26 公開日:2023-01-16
# 不均一処理効果のデータ駆動推定

Data-Driven Estimation of Heterogeneous Treatment Effects ( http://arxiv.org/abs/2301.06615v1 )

ライセンス: Link先を確認
Christopher Tran, Keith Burghardt, Kristina Lerman, Elena Zheleva(参考訳) 異種治療効果推定(ヘテロジニアス・エフェクト・エフェクト・アセスメント・アセスメント・アセスメント)は、経験科学において重要な問題である。 ここ数年、観測データや実験データから異種効果を推定する問題に機械学習アルゴリズムを適用することにかなりの関心が寄せられている。 しかし、これらのアルゴリズムは観測されたデータの特徴について強く仮定し、基礎となる因果モデルの構造を無視し、偏りのある推定に繋がる。 同時に、基礎となる因果メカニズムが現実世界のデータセットで知られていることは滅多になく、考慮しにくい。 本研究では,機械学習を用いた異種処理効果推定のための最先端データ駆動手法に関する調査を行い,反事実予測と因果効果を直接推定する手法に広く分類した。 また,構造的因果モデルに依存し,データからモデル構造を学ぶ手法の3番目のカテゴリについて概説する。 種々の構造モデル機構に基づく実証評価は,既存の推定器の利点と欠点と,その性能を測定するための指標を示す。

Estimating how a treatment affects different individuals, known as heterogeneous treatment effect estimation, is an important problem in empirical sciences. In the last few years, there has been a considerable interest in adapting machine learning algorithms to the problem of estimating heterogeneous effects from observational and experimental data. However, these algorithms often make strong assumptions about the observed features in the data and ignore the structure of the underlying causal model, which can lead to biased estimation. At the same time, the underlying causal mechanism is rarely known in real-world datasets, making it hard to take it into consideration. In this work, we provide a survey of state-of-the-art data-driven methods for heterogeneous treatment effect estimation using machine learning, broadly categorizing them as methods that focus on counterfactual prediction and methods that directly estimate the causal effect. We also provide an overview of a third category of methods which rely on structural causal models and learn the model structure from data. Our empirical evaluation under various underlying structural model mechanisms shows the advantages and deficiencies of existing estimators and of the metrics for measuring their performance.
翻訳日:2023-01-18 15:24:47 公開日:2023-01-16
# finnlp-2022 eraiタスクのプロンプトショット:ペア比較と教師なしランキング

PromptShots at the FinNLP-2022 ERAI Tasks: Pairwise Comparison and Unsupervised Ranking ( http://arxiv.org/abs/2301.06606v1 )

ライセンス: Link先を確認
Peratham Wiriyathammabhum(参考訳) 本報告では, アマチュア投資家の合理性を評価するための共通課題について紹介する。 私たちは対数比較と教師なしのランキングタスクの両方に参加しました。 ペア比較では,T5-small と OpenAI InstructGPT の言語モデルを用いた。 驚いたことに、我々は、中国のデータに基づいて訓練されたOpenAI InstructGPT言語モデルが、私たちの提出物で最もうまく機能し、最大損失(ML)の2倍の精度でランキング3位となった。 このモデルは、google翻訳の英語データのトレーニングよりも大きなマージンでうまく動作し、英語の少数ショット訓練されたinstructgptモデルは、英語データに基づいて微調整された命令ベースのt5-smallモデルよりもパフォーマンスが悪くなる。 しかし、全ての命令に基づく提出は、より多くのデータと学習信号がある場合の最大潜在利益(mpp)のペアワイズ精度ではうまく機能しない。 中国の数発訓練されたInstructGPTモデルは、今でもわれわれの環境では最高だ。 教師なしランク付けには,多くの財務特化語を含む多くの言語モデルと,モーメント推定器を用いて中国語と英語の両方で教師なしの語彙を利用した。 全応募者はMPPランキングで1位から3位にランクインしている。 しかし、いずれもML得点では成績が良くない。 したがって,MPPとMLのスコアは同じ式を用いてMPPとMLを治療したので,それぞれ異なる治療が必要である。 唯一の違いは、市場のセンチメントレキシコンの扱いです。

This report describes our PromptShots submissions to a shared task on Evaluating the Rationales of Amateur Investors (ERAI). We participated in both pairwise comparison and unsupervised ranking tasks. For pairwise comparison, we employed instruction-based models based on T5-small and OpenAI InstructGPT language models. Surprisingly, we observed OpenAI InstructGPT language model few-shot trained on Chinese data works best in our submissions, ranking 3rd on the maximal loss (ML) pairwise accuracy. This model works better than training on the Google translated English data by a large margin, where the English few-shot trained InstructGPT model even performs worse than an instruction-based T5-small model finetuned on the English data. However, all instruction-based submissions do not perform well on the maximal potential profit (MPP) pairwise accuracy where there are more data and learning signals. The Chinese few-shot trained InstructGPT model still performs best in our setting. For unsupervised ranking, we utilized many language models, including many financial-specific ones, and Bayesian lexicons unsupervised-learned on both Chinese and English words using a method-of-moments estimator. All our submissions rank best in the MPP ranking, from 1st to 3rd. However, they all do not perform well for ML scoring. Therefore, both MPP and ML scores need different treatments since we treated MPP and ML using the same formula. Our only difference is the treatment of market sentiment lexicons.
翻訳日:2023-01-18 15:24:17 公開日:2023-01-16
# Euphemism Detection 2022 における共有タスクへのTEDBシステム記述

TEDB System Description to a Shared Task on Euphemism Detection 2022 ( http://arxiv.org/abs/2301.06602v1 )

ライセンス: Link先を確認
Peratham Wiriyathammabhum(参考訳) 本報告では,共用課題である共振検出2022に対するtedb(transformers for euphemism detection base)の提案について述べる。 我々は,優美主義をテキスト分類として予測するタスクを課した。 テキスト分類の最先端手法であるトランスフォーマーモデルについて検討した。 さまざまなトレーニングスキーム、事前訓練モデル、モデルアーキテクチャについて検討した。 0.816 F1スコア(0.818精度と0.814リコール)の最良の結果は,コサインアニーリングスケジューラを用いて,KimCNN分類器をバックエンドとした特徴抽出器フロントエンドとして,エキシミズム検出用TweetEval/TimeLMs事前訓練RoBERTaモデルである。 感情分析と攻撃性検出の事前訓練モデルを用いて,F1スコアと相関し,サルカズム検出などの他のタスクで事前訓練を行った。 また,単語ベクトルチャネルを増設しても,実験の性能は向上しない。

In this report, we describe our Transformers for euphemism detection baseline (TEDB) submissions to a shared task on euphemism detection 2022. We cast the task of predicting euphemism as text classification. We considered Transformer-based models which are the current state-of-the-art methods for text classification. We explored different training schemes, pretrained models, and model architectures. Our best result of 0.816 F1-score (0.818 precision and 0.814 recall) consists of a euphemism-detection-finetuned TweetEval/TimeLMs-pretrained RoBERTa model as a feature extractor frontend with a KimCNN classifier backend trained end-to-end using a cosine annealing scheduler. We observed pretrained models on sentiment analysis and offensiveness detection to correlate with more F1-score while pretraining on other tasks, such as sarcasm detection, produces less F1-scores. Also, putting more word vector channels does not improve the performance in our experiments.
翻訳日:2023-01-18 15:23:52 公開日:2023-01-16
# パワーフルオーダー集合熱エンジン

Powerful ordered collective heat engines ( http://arxiv.org/abs/2301.06591v1 )

ライセンス: Link先を確認
Fernando S. Filho, Gustavo A. L. For\~ao, D.M.Busiello, B.Cleuren and Carlos E. Fiore(参考訳) 本稿では,その性能向上と運転体制の誘導に同期動作装置を活用できるエンジンのクラスを紹介する。 提案手法は,2つの熱浴に接触して一定の運転作業を行うN$相互作用ユニティからなる最小限のセットアップを含む。 同期ユニティと最適パラメータの選択の間の相互作用は最大パワーと効率をもたらし、前者はカーゾン=アルボーン$\eta_{CA}$(それぞれ$\eta_{CA}$より大きいものを含む)とカルノー$\eta_c$バウンドに到達できる。 主系の特徴は、現象論的モデルと平衡状態の近傍の線形解析を通して順序づけられた効果を扱って捉えられる。 本枠組みは, 順序構造に基づく非平衡熱機械の構築に向けた道を開くものである。

We introduce a class of engines whereby units operating synchronously can be harnessed for levering its performance and also guiding the regime of operation. Our approach encompasses a minimal setup composed of $N$ interacting unities placed in contact with two thermal baths and subjected to a constant driving worksource. The interplay between synchronized unities and optimal parameter choices provide maximal power and efficiency, the former and latter being able to reach Curzon-Ahlborn $\eta_{CA}$ (including greater than $\eta_{CA}$) and Carnot $\eta_c$ bounds, respectively. The main system features are captured by treating ordered effects through a phenomenological model and a linear analysis near the equilibrium regime. The present framework paves the way for the building of promising nonequilibrium thermal machines based on ordered structures.
翻訳日:2023-01-18 15:23:30 公開日:2023-01-16
# エノンの平面理論を量子ワイヤネットワークに拡張する

Extending the planar theory of anyons to quantum wire networks ( http://arxiv.org/abs/2301.06590v1 )

ライセンス: Link先を確認
Tomasz Maciazek, Aaron Conlon, Gert Vercleyen, J.K. Slingerland(参考訳) ネットワーク上の移動に制限された粒子の世界線のブレイディングは、二次元物理学で知られている標準的なブレイド群と著しく異なるグラフブレイド群によって制御される。 近年、単一のワイヤジャンクションで交換するエノンに対して、グラフブレイディングとエノン融合の整合性を示すことは、特定の一般化された六角形方程式の解から生じるブレイディング交換作用素を持つ新しいタイプのエノンモデルをもたらすことが示されている。 本研究では、一般的なワイヤネットワークに対するこれらのグラフブリードド・エニオン融合モデルを確立する。 ブレイディングの特性は,与えられたネットワークのグラフ理論的接続に強く依存することを示す。 特に、三連結ネットワークは平面anyonモデルと同じブレイディング交換演算子を持つことを証明している。 対照的に、モジュラーバイコネクテッドネットワークは異なるモジュール内の独立した交換演算子をサポートする。 したがって、そのようなモジュラーネットワークはより効率的なトポロジカル量子コンピュータ回路につながる可能性がある。 最後に、グラフ支援anyon融合モデルは(一般化された)コヒーレンス特性を持ち、ある多角形方程式が任意の数のanyonに対するブレイディング交換作用素を決定すると推測する。 また, イジング理論, 量子双対群, タンバラ・ヤマガミモデルなど, 選択された低ランク核融合環に対するこれらの多角形方程式の解を広範囲に研究した。 我々は、任意のオンの平面理論に現れない多くの解を見つける。

The braiding of the worldlines of particles restricted to move on a network (graph) is governed by the graph braid group, which can be strikingly different from the standard braid group known from two-dimensional physics. It has been recently shown that imposing the compatibility of graph braiding with anyon fusion for anyons exchanging at a single wire junction leads to new types of anyon models with the braiding exchange operators stemming from solutions of certain generalised hexagon equations. In this work, we establish these graph-braided anyon fusion models for general wire networks. We show that the character of braiding strongly depends on the graph-theoretic connectivity of the given network. In particular, we prove that triconnected networks yield the same braiding exchange operators as the planar anyon models. In contrast, modular biconnected networks support independent braiding exchange operators in different modules. Consequently, such modular networks may lead to more efficient topological quantum computer circuits. Finally, we conjecture that the graph-braided anyon fusion models will possess the (generalised) coherence property where certain polygon equations determine the braiding exchange operators for an arbitrary number of anyons. We also extensively study solutions to these polygon equations for chosen low-rank fusion rings, including the Ising theory, quantum double of groups, and Tambara-Yamagami models. We find numerous solutions that do not appear in the planar theory of anyons.
翻訳日:2023-01-18 15:23:14 公開日:2023-01-16
# 窒素空洞センタを用いたセンシングのためのダイヤモンド光学強化フォトン集光効率

Diamond-optic enhanced photon collection efficiency for sensing with nitrogen-vacancy centers ( http://arxiv.org/abs/2301.06583v1 )

ライセンス: Link先を確認
Muhib Omar, Andreas Conta, Andreas Westerhoff, Raphael Hasse, Georgios Chatzidrosos, Dmitry Budker and Arne Wickenbrock(参考訳) 量子センシングに用いるダイヤモンド中の窒素空孔色中心から放射される蛍光の量を増加させる設計を提案する。 対向面発光面を3.8(1)で比較した場合の集光蛍光の測定を行った。 これはレイトレーシングシミュレーションの結果と一致する。 この設計は、例えば、磁場、圧力、温度、回転の光学的読み出しに基づく測定において、ショットノイズ制限感度を改善する。

We present a design to increase the amount of collected fluorescence emitted by nitrogen-vacancy color centers in diamond used for quantum-sensing. An improvement was measured in collected fluorescence when comparing oppositely faced emitting surfaces by a factor of 3.8(1). This matches ray-tracing simulation results. This design therefore improves on the shot noise limited sensitivity in optical read-out based measurements of for instance magnetic and electric fields, pressure, temperature and rotations.
翻訳日:2023-01-18 15:22:51 公開日:2023-01-16
# ガウス過程モデルによるアンテナアレイ校正

Antenna Array Calibration Via Gaussian Process Models ( http://arxiv.org/abs/2301.06582v1 )

ライセンス: Link先を確認
Sergey S. Tambovskiy, G\'abor Fodor, Hugo Tullberg(参考訳) アンテナアレイのキャリブレーションは、広範囲の高度なアンテナシステムにわたってビームパターンの忠実性を維持し、時間分割二重化方式におけるチャネル相互性を確保するために必要である。 この分野での継続的な開発にもかかわらず、既存のほとんどのソリューションは特定の無線アーキテクチャに最適化され、標準化された無線通信を必要とする。 通信プロトコルとハードウェアの多様性は、新しいアンテナシステムごとにキャリブレーション手順を設計または更新する必要があるため、問題となるケースを生み出します。 本研究では,関数近似のタスクとしてアンテナ校正を別の方法で定式化し,ベイズ機械学習を用いてそれに対処する。 私たちの貢献は3倍です。 まず,各放射素子, 位置オフセット, アンテナ素子間の相互結合効果に対応する基礎となるハードウェア障害を計測する, 近接場測定に基づくパラメータ空間を定義する。 第二に、ガウス過程回帰は前述の近接場データのスパース集合からモデルを形成するために用いられる。 一度展開すると、学習された非パラメトリックモデルは、システムのビーム形成重量を継続的に変換し、修正されたビームパターンをもたらす。 最後に,ディジタルビームフォーミングアンテナアレイとアナログビームフォーミングアンテナアレイの両方において,この手法の有効性を実証し,動的ハードウェア障害によるリアルタイム動作支援への拡張について考察する。

Antenna array calibration is necessary to maintain the high fidelity of beam patterns across a wide range of advanced antenna systems and to ensure channel reciprocity in time division duplexing schemes. Despite the continuous development in this area, most existing solutions are optimised for specific radio architectures, require standardised over-the-air data transmission, or serve as extensions of conventional methods. The diversity of communication protocols and hardware creates a problematic case, since this diversity requires to design or update the calibration procedures for each new advanced antenna system. In this study, we formulate antenna calibration in an alternative way, namely as a task of functional approximation, and address it via Bayesian machine learning. Our contributions are three-fold. Firstly, we define a parameter space, based on near-field measurements, that captures the underlying hardware impairments corresponding to each radiating element, their positional offsets, as well as the mutual coupling effects between antenna elements. Secondly, Gaussian process regression is used to form models from a sparse set of the aforementioned near-field data. Once deployed, the learned non-parametric models effectively serve to continuously transform the beamforming weights of the system, resulting in corrected beam patterns. Lastly, we demonstrate the viability of the described methodology for both digital and analog beamforming antenna arrays of different scales and discuss its further extension to support real-time operation with dynamic hardware impairments.
翻訳日:2023-01-18 15:22:45 公開日:2023-01-16
# 極小データセットの最適化予測:オープンソースのプロジェクトヘルス予測を事例として

Optimizing Predictions for Very Small Data Sets: a case study on Open-Source Project Health Prediction ( http://arxiv.org/abs/2301.06577v1 )

ライセンス: Link先を確認
Andre Lustosa, Tim Menzies(参考訳) 非常に小さなデータセットから学ぶと、結果のモデルは多くの間違いを犯す可能性がある。 例えば、オープンソースプロジェクトの健全性のための学習予測子を考える。 このタスクのトレーニングデータは、非常に小さい(例えば、毎月収集される5年間のデータは、たった60行のトレーニングデータである)。 このデータを用いて、事前の作業は、学習した予測子に許容できない大きなエラーがあった。 機械学習者の制御パラメータのより優れた設定により,これらの高い誤差率に対処できることを示す。 例えば、ここではスニークと呼ばれる、ランドスケープ分析の方法を紹介します。 (a)~ ハイパーパラメータの一般的なランドスケープを見つけるためにデータをクラスタ化します。 (b)-その風景の各部分からいくつかの代表を探索する。 SNEAKは、従来の最先端ハイパーパラメータ最適化アルゴリズム(FLASH、HYPEROPT、OPTUNA、微分進化)よりも高速かつ効果的である。 さらに重要なことは、SNEAKが発見した構成は他の方法よりもはるかにエラーが少ないことである。 SNEAKはハイパーパラメータの最も情報性の高い領域を見つけ、それからそれらの領域にジャンプするので、うまく機能すると推測する。 その他の方法(風景を反映しない)は、あまり情報のない選択肢を探す時間を無駄にする可能性がある。 このことから、以下の結論が導かれる。 まず、オープンソースプロジェクトの健全性を予測するために、ランドスケープ分析(例えばsneak)を推奨します。 第二に、より一般的には、非常に小さなデータセットから学習する場合、ハイパーパラメータ最適化(SNEAKなど)を使用して学習制御パラメータを選択する。 そのスピードと実装の単純さから、SNEAKは他の `data-light' の SE ドメインにも役立つかもしれない。 他の研究者が結果を繰り返し、改善したり、反証したりするのを助けるため、我々のスクリプトとデータはGitHubでhttps://github.com/zxcv123456qwe/niSneakで入手できる。

When learning from very small data sets, the resulting models can make many mistakes. For example, consider learning predictors for open source project health. The training data for this task may be very small (e.g. five years of data, collected every month means just 60 rows of training data). Using this data, prior work had unacceptably large errors in their learned predictors. We show that these high errors rates can be tamed by better configuration of the control parameters of the machine learners. For example, we present here a {\em landscape analytics} method (called SNEAK) that (a)~clusters the data to find the general landscape of the hyperparameters; then (b)~explores a few representatives from each part of that landscape. SNEAK is both faster and and more effective than prior state-of-the-art hyperparameter optimization algorithms (FLASH, HYPEROPT, OPTUNA, and differential evolution). More importantly, the configurations found by SNEAK had far less error that other methods. We conjecture that SNEAK works so well since it finds the most informative regions of the hyperparameters, then jumps to those regions. Other methods (that do not reflect over the landscape) can waste time exploring less informative options. From this, we make the following conclusions. Firstly, for predicting open source project health, we recommend landscape analytics (e.g.SNEAK). Secondly, and more generally, when learning from very small data sets, using hyperparameter optimization (e.g. SNEAK) to select learning control parameters. Due to its speed and implementation simplicity, we suggest SNEAK might also be useful in other ``data-light'' SE domains. To assist other researchers in repeating, improving, or even refuting our results, all our scripts and data are available on GitHub at https://github.com/zxcv123456qwe/niSneak
翻訳日:2023-01-18 15:22:22 公開日:2023-01-16
# 変分オートエンコーダによるブラインドイコライザのブートストラップの改善

Improving the Bootstrap of Blind Equalizers with Variational Autoencoders ( http://arxiv.org/abs/2301.06576v1 )

ライセンス: Link先を確認
Vincent Lauinger, Fred Buchali, and Laurent Schmalen(参考訳) そこで本研究では,視覚障害者等化器の臨界作業点における起動評価を行い,よく使われるアルゴリズムの利点と障害を分析し,最近導入した変分オートエンコーダ(vae)ベースの等化器がブートストラップをいかに改善できるかを実証する。

We evaluate the start-up of blind equalizers at critical working points, analyze the advantages and obstacles of commonly-used algorithms, and demonstrate how the recently-proposed variational autoencoder (VAE) based equalizers can improve bootstrapping.
翻訳日:2023-01-18 15:21:53 公開日:2023-01-16
# 医療時系列生成のための因果リカレント変分オートエンコーダ

Causal Recurrent Variational Autoencoder for Medical Time Series Generation ( http://arxiv.org/abs/2301.06574v1 )

ライセンス: Link先を確認
Hongming Li, Shujian Yu, Jose Principe(参考訳) 本研究では,多変量時系列xからグランガー因果グラフを学習し,その基礎となる因果機構をデータ生成プロセスに組み込む,新しい生成モデルであるcausal recurrent variational autoencoder (cr-vae)を提案する。 古典的リカレントVAEとは対照的に、私たちのCR-VAEはマルチヘッドデコーダを使用し、$p$-thヘッドは$\mathbf{x}$(つまり$\mathbf{x}^p$)の$p$-th次元を生成する。 重み(デコーダ)に余剰誘導ペナルティを課し、特定の重みセットをゼロにすることで、CR-VAEは、すべての変数間の因果関係を符号化するスパース隣接行列を学習する。 この因果行列のおかげで、デコーダは厳格にグランガー因果原理に従っており、それによってデータ生成プロセスが透明になる。 我々は、全体目標を訓練するための2段階のアプローチを開発する。 本研究では,脳波(EEG)信号とfMRI(Functional magnetic resonance imaging)データを含む2つの実世界のヒト脳データセットと合成データを用いて,モデルの挙動を実証的に評価した。 我々のモデルは質的にも量的にも常に最先端の時系列生成モデルを上回る。 さらに、既存のグランジャー因果関係に基づく因果推論法と類似または改良された忠実な因果グラフも発見する。 CR-VAEのコードはhttps://github.com/hongmingli1995/CR-VAEで公開されている。

We propose causal recurrent variational autoencoder (CR-VAE), a novel generative model that is able to learn a Granger causal graph from a multivariate time series x and incorporates the underlying causal mechanism into its data generation process. Distinct to the classical recurrent VAEs, our CR-VAE uses a multi-head decoder, in which the $p$-th head is responsible for generating the $p$-th dimension of $\mathbf{x}$ (i.e., $\mathbf{x}^p$). By imposing a sparsity-inducing penalty on the weights (of the decoder) and encouraging specific sets of weights to be zero, our CR-VAE learns a sparse adjacency matrix that encodes causal relations between all pairs of variables. Thanks to this causal matrix, our decoder strictly obeys the underlying principles of Granger causality, thereby making the data generating process transparent. We develop a two-stage approach to train the overall objective. Empirically, we evaluate the behavior of our model in synthetic data and two real-world human brain datasets involving, respectively, the electroencephalography (EEG) signals and the functional magnetic resonance imaging (fMRI) data. Our model consistently outperforms state-of-the-art time series generative models both qualitatively and quantitatively. Moreover, it also discovers a faithful causal graph with similar or improved accuracy over existing Granger causality-based causal inference methods. Code of CR-VAE is publicly available at https://github.com/hongmingli1995/CR-VAE.
翻訳日:2023-01-18 15:21:44 公開日:2023-01-16
# データアウェアによるアクティベーション機能のカスタマイズによるニューラルネットワークエラーの低減

Data-aware customization of activation functions reduces neural network error ( http://arxiv.org/abs/2301.06635v1 )

ライセンス: Link先を確認
Fuchang Gao, Boyu Zhang(参考訳) 活性化関数は、ニューラルネットワークにおいて重要な役割を果たすが、現在のオフザシェルフニューラルネットワークは、使用するアクティベーション関数の特定の選択にはほとんど注意を払わない。 本稿では,アクティベーション関数のデータ認識によるカスタマイズが,ニューラルネットワークエラーの大幅な低減につながることを示す。 まず、ニューラルネットワークにおける活性化関数の役割に関する単純な線形代数的説明を行い、次にdiaconis-shahshahani近似定理と関連づけて、良好な活性化関数に対する一連の基準を提案する。 ケーススタディでは、部分的に交換可能なターゲット関数を持つ回帰タスクである \emph{i.e.} $f(u,v,w)=f(v,u,w)$ for $u,v\in \mathbb{R}^d$ and $w\in \mathbb{R}^k$ を考える。 アクティベーション関数も実際にはほとんど使われないので、この基準に従って ``seagull'' 偶数アクティベーション関数 $\log(1+x^2)$ を設計した。 局所的な滑らかさ、曲率、交換性の程度が異なる2ダース以上の9-25次元の例に対する実証実験により、既に精製されたニューラルネットワークにおける 'seagull'' の活性化関数への簡単な置換が、誤差のオーダー・オブ・マグニチュード低減につながることが判明した。 この改善は、交換可能な変数が最初に接続された層にアクティベーション関数置換を適用した時に最も顕著であった。 CIFAR10画像分類データセットでは,「seagull'」を用いた場合,高次元の場合においても誤差を低減できることが示された。 これらの結果は、ニューラルネットワークの性能を改善する一般的なアプローチとして、アクティベーション関数をカスタマイズする可能性を強調している。

Activation functions play critical roles in neural networks, yet current off-the-shelf neural networks pay little attention to the specific choice of activation functions used. Here we show that data-aware customization of activation functions can result in striking reductions in neural network error. We first give a simple linear algebraic explanation of the role of activation functions in neural networks; then, through connection with the Diaconis-Shahshahani Approximation Theorem, we propose a set of criteria for good activation functions. As a case study, we consider regression tasks with a partially exchangeable target function, \emph{i.e.} $f(u,v,w)=f(v,u,w)$ for $u,v\in \mathbb{R}^d$ and $w\in \mathbb{R}^k$, and prove that for such a target function, using an even activation function in at least one of the layers guarantees that the prediction preserves partial exchangeability for best performance. Since even activation functions are seldom used in practice, we designed the ``seagull'' even activation function $\log(1+x^2)$ according to our criteria. Empirical testing on over two dozen 9-25 dimensional examples with different local smoothness, curvature, and degree of exchangeability revealed that a simple substitution with the ``seagull'' activation function in an already-refined neural network can lead to an order-of-magnitude reduction in error. This improvement was most pronounced when the activation function substitution was applied to the layer in which the exchangeable variables are connected for the first time. While the improvement is greatest for low-dimensional data, experiments on the CIFAR10 image classification dataset showed that use of ``seagull'' can reduce error even for high-dimensional cases. These results collectively highlight the potential of customizing activation functions as a general approach to improve neural network performance.
翻訳日:2023-01-18 15:15:11 公開日:2023-01-16
# Ae^2I$: ミス値のインプットのためのダブルオートエンコーダ

$Ae^2I$: A Double Autoencoder for Imputation of Missing Values ( http://arxiv.org/abs/2301.06633v1 )

ライセンス: Link先を確認
Fuchang Gao(参考訳) テーブルに欠落した値を暗示する最も一般的な戦略は、列-列関係またはデータテーブルの行-行関係を調べ、その関係を使って、同じ列の他の列または同じ列の他の行からの非許容値に基づいて欠落値をインデュートすることである。 本稿では、行-行関係と列-列関係を同時に併用し、欠落した値をインプットする二重オートエンコーダ(Ae^2I$)を提案する。 Movielens 1Mデータセットの実証テストでは、$Ae^2I$は推奨システムに対する現在の最先端モデルよりもかなりのマージンで優れていた。

The most common strategy of imputing missing values in a table is to study either the column-column relationship or the row-row relationship of the data table, then use the relationship to impute the missing values based on the non-missing values from other columns of the same row, or from the other rows of the same column. This paper introduces a double autoencoder for imputation ($Ae^2I$) that simultaneously and collaboratively uses both row-row relationship and column-column relationship to impute the missing values. Empirical tests on Movielens 1M dataset demonstrated that $Ae^2I$ outperforms the current state-of-the-art models for recommender systems by a significant margin.
翻訳日:2023-01-18 15:14:29 公開日:2023-01-16
# 非滑らか確率近似における漸近正規性と最適性

Asymptotic normality and optimality in nonsmooth stochastic approximation ( http://arxiv.org/abs/2301.06632v1 )

ライセンス: Link先を確認
Damek Davis, Dmitriy Drusvyatskiy, Liwei Jiang(参考訳) PolyakとJuditskyは、滑らかな方程式を解く確率近似アルゴリズムは中心極限定理を享受することを示した。 さらに、この方法の漸近的共分散は、H\'{a}jek と Le Cam の局所ミニマックス感覚における任意の推定手順の中で最も可能であると論じられている。 この行の長年の未解決の問題は、確率的非線形計画法や確率的変分不等式など、同様の保証が重要な非滑らかな問題に当てはまるかどうかである。 この研究では、これが事実であることを示す。

In their seminal work, Polyak and Juditsky showed that stochastic approximation algorithms for solving smooth equations enjoy a central limit theorem. Moreover, it has since been argued that the asymptotic covariance of the method is best possible among any estimation procedure in a local minimax sense of H\'{a}jek and Le Cam. A long-standing open question in this line of work is whether similar guarantees hold for important non-smooth problems, such as stochastic nonlinear programming or stochastic variational inequalities. In this work, we show that this is indeed the case.
翻訳日:2023-01-18 15:14:16 公開日:2023-01-16
# マルチチョイス学習による多様なマルチメディアレイアウト生成

Diverse Multimedia Layout Generation with Multi Choice Learning ( http://arxiv.org/abs/2301.06629v1 )

ライセンス: Link先を確認
David D. Nguyen, Surya Nepal, Salil S. Kanhere(参考訳) テキスト、グラフ、画像を含むマルチメディア文書の視覚的に魅力的なレイアウトを設計するには、創造的なインテリジェンスが必要である。 レイアウト生成のモデル化は最近、美学とコミュニケーションスタイルの重要性から注目を集めている。 通常の予測タスクとは対照的に、ユーザの好みに依存する許容範囲のレイアウトが存在する。 例えば、ポスターデザイナーは左上のロゴを好み、右下のロゴを好みます。 どちらも正しい選択だが、既存の機械学習モデルはレイアウトを単一の選択予測問題として扱う。 このような状況下では、これらのモデルは、縮退したサンプルを形成する同じ入力を与えられた全ての可能な選択を単純に平均化する。 上記の例では、中央にロゴが付いた受け入れがたいレイアウトになっている。 本稿では,レイアウト生成を効果的に安定化させるために,複数選択予測と入賞者全損失を用いた自動回帰ニューラルネットワークアーキテクチャLayoutMCLを提案する。 LayoutMCLは、複数の予測子を使用して、レイアウトオブジェクトごとに可能なオプションの範囲を学習することで平均化の問題を回避する。 これにより、layoutmclは単一の入力から複数の多様なレイアウトを生成することができる。 実データ(マガジン、ドキュメント、モバイルアプリのレイアウト)の定量的なベンチマークを通じて、LayoutMCLはFr\'echet Inception Distance (FID)を83~98%削減し、既存のアプローチと比較して大幅に多様性を増すことを示した。

Designing visually appealing layouts for multimedia documents containing text, graphs and images requires a form of creative intelligence. Modelling the generation of layouts has recently gained attention due to its importance in aesthetics and communication style. In contrast to standard prediction tasks, there are a range of acceptable layouts which depend on user preferences. For example, a poster designer may prefer logos on the top-left while another prefers logos on the bottom-right. Both are correct choices yet existing machine learning models treat layouts as a single choice prediction problem. In such situations, these models would simply average over all possible choices given the same input forming a degenerate sample. In the above example, this would form an unacceptable layout with a logo in the centre. In this paper, we present an auto-regressive neural network architecture, called LayoutMCL, that uses multi-choice prediction and winner-takes-all loss to effectively stabilise layout generation. LayoutMCL avoids the averaging problem by using multiple predictors to learn a range of possible options for each layout object. This enables LayoutMCL to generate multiple and diverse layouts from a single input which is in contrast with existing approaches which yield similar layouts with minor variations. Through quantitative benchmarks on real data (magazine, document and mobile app layouts), we demonstrate that LayoutMCL reduces Fr\'echet Inception Distance (FID) by 83-98% and generates significantly more diversity in comparison to existing approaches.
翻訳日:2023-01-18 15:14:06 公開日:2023-01-16
# 大規模言語モデルにおける言語と思考の解離:認知的視点

Dissociating language and thought in large language models: a cognitive perspective ( http://arxiv.org/abs/2301.06627v1 )

ライセンス: Link先を確認
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko(参考訳) 今日の大きな言語モデル(LLM)は、日常的にコヒーレントで文法的で一見意味のあるテキストの段落を生成する。 この成果は、これらのネットワークが、抽象的な知識と推論を必要とするタスクを実行することができる「マシンを考える」ようになるという憶測につながった。 本稿では、言語使用における2つの異なる側面におけるllmの能力について考察する。与えられた言語の規則やパターンの知識を含む「形式的言語能力」と、現実世界における言語理解や使用に必要な認知能力のホストである「機能的言語能力」である。 認知神経科学(cognitive neuroscience)のエビデンスをもとに,人間の形式的能力は特殊言語処理機構に依存しているのに対し,機能的能力は形式的推論,世界知識,状況モデリング,社会認知など,人間の思考を構成する複数の言語外能力を持っている。 この区別に従って、LLMは形式的な言語能力を必要とするタスクにおいて印象的な(不完全な)パフォーマンスを示すが、機能能力を必要とする多くのテストでは失敗する。 この証拠に基づき,(1)現代LLMは形式言語スキルのモデルとして真剣に取り組まなければならない,(2)実生活言語を習得するモデルは,コア言語モジュールだけでなく,思考のモデル化に必要な複数の非言語固有の認知能力も組み込む必要がある,と論じる。 全体として、形式的言語能力と機能的言語能力の区別は、LLMの潜在能力を包含する談話を明確にし、言語を人間的な方法で理解し、使用するモデルを構築するための道筋を提供する。

Today's large language models (LLMs) routinely generate coherent, grammatical and seemingly meaningful paragraphs of text. This achievement has led to speculation that these networks are -- or will soon become -- "thinking machines", capable of performing tasks that require abstract knowledge and reasoning. Here, we review the capabilities of LLMs by considering their performance on two different aspects of language use: 'formal linguistic competence', which includes knowledge of rules and patterns of a given language, and 'functional linguistic competence', a host of cognitive abilities required for language understanding and use in the real world. Drawing on evidence from cognitive neuroscience, we show that formal competence in humans relies on specialized language processing mechanisms, whereas functional competence recruits multiple extralinguistic capacities that comprise human thought, such as formal reasoning, world knowledge, situation modeling, and social cognition. In line with this distinction, LLMs show impressive (although imperfect) performance on tasks requiring formal linguistic competence, but fail on many tests requiring functional competence. Based on this evidence, we argue that (1) contemporary LLMs should be taken seriously as models of formal linguistic skills; (2) models that master real-life language use would need to incorporate or develop not only a core language module, but also multiple non-language-specific cognitive capacities required for modeling thought. Overall, a distinction between formal and functional linguistic competence helps clarify the discourse surrounding LLMs' potential and provides a path toward building models that understand and use language in human-like ways.
翻訳日:2023-01-18 15:13:40 公開日:2023-01-16
# マスクベクトル量子化

Masked Vector Quantization ( http://arxiv.org/abs/2301.06626v1 )

ライセンス: Link先を確認
David D. Nguyen, David Leibowitz, Surya Nepal, Salil S. Kanhere(参考訳) 離散的潜在表現を持つ生成モデルは最近、複雑な高次元データ分布を学習する素晴らしい能力を示している。 しかしながら、それらのパフォーマンスはインスタンス当たりのトークンの長いシーケンスと多数のコードブックエントリに依存しており、結果として長いサンプリング時間と相当な計算がカテゴリの後方に適合する。 これらの問題に対処するために,MH-Dropout(MH-Dropout)と呼ばれる確率的勝者獲得学習システムを用いて,マスク構成を学習することにより,各コードベクトルの表現能力を高めるMasked Vector Quantization(MVQ)フレームワークを提案する。 ImageNet 64$\times$64では、MVQは既存のベクトル量子化アーキテクチャのFIDをインスタンス当たり2トークンで最大6,8\%、5トークンで最大5,7\%削減する。 これらの改善は、コードブックのエントリが減少し、推論中にトークンサンプリングのスピードアップを7ドル99セントで行えるようになった。 さらなる利点として、より小さな潜在空間は、複数をスムーズに結合できる転送可能な視覚的表現をmvqに識別させる。

Generative models with discrete latent representations have recently demonstrated an impressive ability to learn complex high-dimensional data distributions. However, their performance relies on a long sequence of tokens per instance and a large number of codebook entries, resulting in long sampling times and considerable computation to fit the categorical posterior. To address these issues, we propose the Masked Vector Quantization (MVQ) framework which increases the representational capacity of each code vector by learning mask configurations via a stochastic winner-takes-all training regime called Multiple Hypothese Dropout (MH-Dropout). On ImageNet 64$\times$64, MVQ reduces FID in existing vector quantization architectures by up to $68\%$ at 2 tokens per instance and $57\%$ at 5 tokens. These improvements widen as codebook entries is reduced and allows for $7\textit{--}45\times$ speed-up in token sampling during inference. As an additional benefit, we find that smaller latent spaces lead to MVQ identifying transferable visual representations where multiple can be smoothly combined.
翻訳日:2023-01-18 15:13:10 公開日:2023-01-16
# TDSTF:Sparse Time Series Forecastingのためのトランスフォーマーベース拡散確率モデル

TDSTF: Transformer-based Diffusion probabilistic model for Sparse Time series Forecasting ( http://arxiv.org/abs/2301.06625v1 )

ライセンス: Link先を確認
Ping Chang, Huayu Li, Stuart F. Quan, Janet Roveda and Ao Li(参考訳) 多次元および散発データ(スパースデータ)を用いた時系列確率予測は、集中治療室(ICU)患者の生理指標のモニタリングを行う可能性がある。 本稿では,sparse time series forecasting (tdstf) に対するtransformer-based diffusion probabilistic model を提案する。 確率的予測にフォーカスする研究はたくさんあるが、極端に広範囲なデータから発生するノイズを避けるものはほとんどない。 従来のマトリクス形式でのデータ冗長性をバイパスするために、sparse time seriesをはるかに効率的な方法で表現するデータ組織であるtripletを活用しています。 提案モデルは現在の最先端確率予測モデルよりもMIMIC-III ICUデータセットの方が優れている。 モデルサンプリングの中央値を決定論的予測として用いた場合,正規化平均連続ランク付き確率スコア (crps) は$\mathbf{0.4379}$,平均二乗誤差 (mse) は$\mathbf{0.4008}$であった。 私たちのコードはhttps://github.com/PingChang818/TDSTFで提供されます。

Time series probabilistic forecasting with multi-dimensional and sporadic data (known as sparse data) has potential to implement monitoring kinds of physiological indices of patients in Intensive Care Unit (ICU). In this paper, we propose Transformer-based Diffusion probabilistic model for Sparse Time series Forecasting (TDSTF), a new model to predict distribution of highly sparse time series. There are many works that focus on probabilistic forecasting, but few of them avoid noise that come from extreme sparsity of data. We take advantage of Triplet, a data organization that represents sparse time series in a much efficient way, for our model to bypass data redundancy in the traditional matrix form. The proposed model performed better on MIMIC-III ICU dataset than the current state-of-the-art probabilistic forecasting models. We obtained normalized average continuous ranked probability score (CRPS) of $\mathbf{0.4379}$, and mean squared error (MSE) of $\mathbf{0.4008}$ when adopting the median of the model samplings as the deterministic forecasting. Our code is provided at https://github.com/PingChang818/TDSTF.
翻訳日:2023-01-18 15:12:49 公開日:2023-01-16
# TAAL:医療画像セグメンテーションにおけるアクティブラーニングのためのテスト時間拡張

TAAL: Test-time Augmentation for Active Learning in Medical Image Segmentation ( http://arxiv.org/abs/2301.06624v1 )

ライセンス: Link先を確認
M\'elanie Gaillochet, Christian Desrosiers, and Herv\'e Lombaert(参考訳) ディープラーニングの手法は一般的にラベル付きデータの可用性に依存します。 アクティブラーニングは、タスクモデルのパフォーマンスを最大化するために、どのサンプルが注釈に最も適しているかを優先順位付けすることで、このような取り組みに対処する。 能動学習の枠組みは、自然画像の分類の文脈で広く研究されてきたが、医療画像の分類においてのみ使われてきた。 この課題は、アノテーションの最適な候補データを明らかにする不確実性尺度を取得することである。 本稿では,データ変換による不確実性情報を利用するセグメント化のための,新しい半教師付きアクティブラーニング手法であるtaal(test-time augmentation for active learning)を提案する。 本手法は,半教師付き手法によるモデル学習の改善と,次に注釈を付けるための最も関連性のないサンプルの同定に,トレーニングと推論の相互拡張一貫性を適用した。 さらに、一貫性の喪失はモデル性能をさらに改善するためにJSDの修正版を使用します。 不確実性に基づく戦略で一般的に使用される、外部モジュールや単純なヒューリスティックではなく、データ変換に依存することによって、taalは、医療領域に適用可能な、シンプルで強力でタスクに依存しない半教師なしのアクティブラーニングアプローチとして現れる。 心臓画像の公開データセットを用いた結果から,taalは完全教師付きと半教師付きの両方において,既存のベースラインメソッドよりも優れていた。 実装はhttps://github.com/melinphd/taalで公開しています。

Deep learning methods typically depend on the availability of labeled data, which is expensive and time-consuming to obtain. Active learning addresses such effort by prioritizing which samples are best to annotate in order to maximize the performance of the task model. While frameworks for active learning have been widely explored in the context of classification of natural images, they have been only sparsely used in medical image segmentation. The challenge resides in obtaining an uncertainty measure that reveals the best candidate data for annotation. This paper proposes Test-time Augmentation for Active Learning (TAAL), a novel semi-supervised active learning approach for segmentation that exploits the uncertainty information offered by data transformations. Our method applies cross-augmentation consistency during training and inference to both improve model learning in a semi-supervised fashion and identify the most relevant unlabeled samples to annotate next. In addition, our consistency loss uses a modified version of the JSD to further improve model performance. By relying on data transformations rather than on external modules or simple heuristics typically used in uncertainty-based strategies, TAAL emerges as a simple, yet powerful task-agnostic semi-supervised active learning approach applicable to the medical domain. Our results on a publicly-available dataset of cardiac images show that TAAL outperforms existing baseline methods in both fully-supervised and semi-supervised settings. Our implementation is publicly available on https://github.com/melinphd/TAAL.
翻訳日:2023-01-18 15:12:26 公開日:2023-01-16
# case-2022多言語抗議イベント検出タスクにおけるクラスベース:多言語抗議ニュースの検出と手作業によるイベントデータセットの自動複製

ClassBases at CASE-2022 Multilingual Protest Event Detection Tasks: Multilingual Protest News Detection and Automatically Replicating Manually Created Event Datasets ( http://arxiv.org/abs/2301.06617v1 )

ライセンス: Link先を確認
Peratham Wiriyathammabhum(参考訳) 本稿では,多言語抗議イベント検出における共有タスクに対するクラスベースの提案について述べる。 多言語対応ニュースの検出には,文書分類,文分類,トークン分類であるsubtask-1,subtask-2,subtask-4を用いた。 subtask-1では、連続的な分類設定で微調整において、XLM-RoBERTa-base、mLUKE-base、XLM-RoBERTa-largeを比較した。 私たちは常に、多言語モデルのトレーニングに提供されるすべての言語からのトレーニングデータの組み合わせを使っています。 より大きなモデルはうまく機能し、エンティティの知識は、無視できないコストで役立ちます。 subtask-2では文分類のためのmlukeベースシステムのみを提出した。 サブタスク4では,シーケンスラベリングのためのトークン分類システムのためのXLM-RoBERTaベースのみを提出した。 手動で作成したイベントデータセットを自動的に複製するために、New York Timesのニュースコーパスから、新型コロナウイルス関連の抗議イベントに参加した。 私たちは、クロールしたデータを抗議イベントのデータセットに処理するシステムを作成しました。

In this report, we describe our ClassBases submissions to a shared task on multilingual protest event detection. For the multilingual protest news detection, we participated in subtask-1, subtask-2, and subtask-4, which are document classification, sentence classification, and token classification. In subtask-1, we compare XLM-RoBERTa-base, mLUKE-base, and XLM-RoBERTa-large on finetuning in a sequential classification setting. We always use a combination of the training data from every language provided to train our multilingual models. We found that larger models seem to work better and entity knowledge helps but at a non-negligible cost. For subtask-2, we only submitted an mLUKE-base system for sentence classification. For subtask-4, we only submitted an XLM-RoBERTa-base for token classification system for sequence labeling. For automatically replicating manually created event datasets, we participated in COVID-related protest events from the New York Times news corpus. We created a system to process the crawled data into a dataset of protest events.
翻訳日:2023-01-18 15:11:57 公開日:2023-01-16