このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20230108となっている論文です。

PDF登録状況(公開日: 20230108)

TitleAuthorsAbstract論文公表日・翻訳日
# 一般フォン・ノイマン代数における量子仮説テストのためのKe Liの補題

Ke Li's lemma for quantum hypothesis testing in general von Neumann algebras ( http://arxiv.org/abs/2010.02177v3 )

ライセンス: Link先を確認
Yan Pautrat, Simeng Wang(参考訳) 例えば [arxiv:1510.04682,arxiv:1706.04590,arxiv:1612.01464,arxiv:1308.6503,arxiv:1602.08898] は量子仮説の検証、量子側情報によるデータ圧縮、量子鍵分布といった様々なタスクに使われている。 この補題はもともと有限次元で証明され、I型フォン・ノイマン代数への直接拡張である。 ここではモジュラー理論を用いることで、補題によって構築された対象に対してより透明な意味を与え、一般のフォン・ノイマン代数に対して証明することができることを示す。 これは、量子シュタインの補題がわずかに弱いという新しい証明と、その二階漸近の即時一般化、例えば [arXiv:1510.04682] と [arXiv:1208.1400] の主な結果をもたらす。

A lemma stated by Ke Li in [arXiv:1208.1400] has been used in e.g. [arXiv:1510.04682,arXiv:1706.04590,arXiv:1612.01464,arXiv:1308.6503,arXiv:1602.08898] for various tasks in quantum hypothesis testing, data compression with quantum side information or quantum key distribution. This lemma was originally proven in finite dimension, with a direct extension to type I von Neumann algebras. Here we show that the use of modular theory allows to give more transparent meaning to the objects constructed by the lemma, and to prove it for general von Neumann algebras. This yields a new proof of quantum Stein's lemma with slightly weaker assumption, as well as immediate generalizations of its second order asymptotics, for example the main results in [arXiv:1510.04682] and [arXiv:1208.1400].
翻訳日:2023-04-29 22:26:32 公開日:2023-01-08
# ベルの不等式は、その導出と一貫して使用されるデータによって不可侵であり、それを満たす量子相関とウィグナーの不等式を満たす確率をもたらす。

The Bell inequality, inviolable by data used consistently with its derivation, leads to quantum correlations that satisfy it, and probabilities that satisfy the Wigner inequality ( http://arxiv.org/abs/2102.13227v2 )

ライセンス: Link先を確認
Louis Sica(参考訳) It is not generally known, that the inequality that Bell derived using three random variables must be identically satisfied by any three corresponding data sets of plus and minus 1s that are writable on paper.This surprising fact is not immediately obvious from Bell's inequality derivation based on causal random variables, but follows immediately if the same mathematical operations are applied to finite data sets.For laboratory data, the inequality is identically satisfied as a fact of pure algebra, and its satisfaction is independent of whether the processes generating the data are local, nonlocal, deterministic, random, or nonsensical.It follows that if predicted correlations violate the inequality, they represent no three cross correlated data sets that experimentally exist or can be generated from valid probability models. Reported data that violate the inequality consist of probabilistically independent data pairs and are thus inconsistent with inequality derivation.In the case of random variables as Bell assumed, the correlations in the inequality may be expressed in terms of the probabilities that give rise to them.A new inequality results, the Wigner inequality that must be satisfied by quantum mechanical probabilities in the case of Bell experiments.If that were not the case, predicted quantum probabilities and correlations would be inconsistent with basic algebra.

It is not generally known, that the inequality that Bell derived using three random variables must be identically satisfied by any three corresponding data sets of plus and minus 1s that are writable on paper.This surprising fact is not immediately obvious from Bell's inequality derivation based on causal random variables, but follows immediately if the same mathematical operations are applied to finite data sets.For laboratory data, the inequality is identically satisfied as a fact of pure algebra, and its satisfaction is independent of whether the processes generating the data are local, nonlocal, deterministic, random, or nonsensical.It follows that if predicted correlations violate the inequality, they represent no three cross correlated data sets that experimentally exist or can be generated from valid probability models. Reported data that violate the inequality consist of probabilistically independent data pairs and are thus inconsistent with inequality derivation.In the case of random variables as Bell assumed, the correlations in the inequality may be expressed in terms of the probabilities that give rise to them.A new inequality results, the Wigner inequality that must be satisfied by quantum mechanical probabilities in the case of Bell experiments.If that were not the case, predicted quantum probabilities and correlations would be inconsistent with basic algebra.
翻訳日:2023-04-09 22:32:12 公開日:2023-01-08
# 救助ネットワーク:地震危機管理におけるuavs(drones)活用

Rescue Network: Using UAVs (drones) in Earthquake Crisis Management ( http://arxiv.org/abs/2105.07172v2 )

ライセンス: Link先を確認
Masoud Hayeri Khyavi(参考訳) 地震は自然災害の一つであり、制御も予測もできない。 地震の防止は不可能であるため、被害の防止も困難である。 残念なことに、各地震とその財政的・生命的損失の後、人々の最初のパニックは事故と被害の第二波をもたらす。 混乱した人々が街や街路や家から逃げ出すという誘惑は大きな問題です。 安全確保と建設における安全原則の観察を考慮し、非常に重要な地震地域での訓練は別として、人々への指導も重要である。 被災地を略奪した者や危険に晒された者を捜索・救助するほか、各地震の後に被害地域を略奪する者も重要な問題となっている。 そこで, 地震などの自然災害の脅威を軽減するため, 現代技術の活用が提案されている。 現在、UAVは自然災害や事故で使用されている。 この目的のために,iotやクラウドを含むネットワーク技術やコミュニケーションの継続的な発展を考慮し,自然災害時の生物の救助要因を増大させ,数秒後に人命を救うことができる効率的な設計を提案する。 本研究では,地震の発生時期と地震後の時間に焦点をあてる。

Earthquake is one of the natural disasters which cannot be either controlled or predicted absolutely. Since preventing earthquake is impossible, preventing its damages is also difficult. Unfortunately, after each earthquake and its financial and life losses, the initial panic of the people results in the second wave of accidents and damages. Inrush of confused people to escape the cities, streets and houses is a great problem. Apart from training in seismic areas which is very important, considering security arrangements and observing security principles in construction, instructing the people is also important. Other than searching for and rescuing the people who are trapped under detrimental or are in danger, those who thieve the damaged area is another important issue after each earthquake. Thus, a solution is proposed to use modern technology to reduce threats of natural disasters including earthquake. Today, UAVs are being used in natural disasters and accidents. To this end and considering the ever-increasing developments of network technologies and communication including IoT and cloud, an efficient design is presented which increases rescue factor of live creatures in natural disasters that can be used to rescue human lives and prevent subsequent outcomes after a few seconds. In this study, focus is on time of occurrence of earthquake and after earthquake
翻訳日:2023-03-31 01:57:23 公開日:2023-01-08
# 重力による絡み合い:ニュートン場対重力場

Gravitationally Mediated Entanglement: Newtonian Field vs. Gravitons ( http://arxiv.org/abs/2112.10798v3 )

ライセンス: Link先を確認
Daine L. Danielson, Gautam Satishchandran, Robert M. Wald(参考訳) 我々は、物体のニュートン重力場が他の物体と絡み合うことができるならば、ニュートン場を生成している物体が殻上の重力場と直接絡み合うことも可能であると主張する。 これは、質量の量子重ね合わせは、相補性と因果性との矛盾を避けるために、量子化された重力放射と時空計量の局所真空揺らぎの両方を必要とすることを示した。 本研究では,このゲダンケン実験における絡み合いと脱コヒーレンス効果の厳密かつ厳密な説明を行い,ベレンキア等の分析で得られたエンベロープの裏面の推定値を大幅に改善し,それらの結論がより一般的な状況で有効であることを示す。 本研究の副産物として, ゲダンケン実験のプロトコルでは, 物体のニュートン重力場が媒介する絡み合いと, 体から放出される殻上の重力によって媒介される絡み合いとの間に明確な区別が認められていない。 このことは、ニュートンの絡み合いは重力の絡み合いの存在を示唆しており、ニュートンの絡み合いの実験的な発見は重力の存在を暗示する可能性があるという見解を支持することを示唆している。

We argue that if the Newtonian gravitational field of a body can mediate entanglement with another body, then it should also be possible for the body producing the Newtonian field to entangle directly with on-shell gravitons. Our arguments are made by revisiting a gedankenexperiment previously analyzed by Belenchia et al., which showed that a quantum superposition of a massive body requires both quantized gravitational radiation and local vacuum fluctuations of the spacetime metric in order to avoid contradictions with complementarity and causality. We provide a precise and rigorous description of the entanglement and decoherence effects occurring in this gedankenexperiment, thereby significantly improving upon the back-of-the-envelope estimates given in the analysis of Belenchia et al. and also showing that their conclusions are valid in much more general circumstances. As a by-product of our analysis, we show that under the protocols of the gedankenexperiment, there is no clear distinction between entanglement mediated by the Newtonian gravitational field of a body and entanglement mediated by on-shell gravitons emitted by the body. This suggests that Newtonian entanglement implies the existence of graviton entanglement and supports the view that the experimental discovery of Newtonian entanglement may be viewed as implying the existence of the graviton.
翻訳日:2023-03-04 00:48:49 公開日:2023-01-08
# 局所フロベニウス環上の量子誤り訂正符号の絡み合い

Entanglement-Assisted Quantum Error-Correcting Codes over Local Frobenius Rings ( http://arxiv.org/abs/2202.00248v4 )

ライセンス: Link先を確認
Tania Sidana and Navin Kashyap(参考訳) 本稿では,有限可換局所フロベニウス環$\mathcal{R}$上の古典的加法符号から絡み合い支援量子誤り訂正符号(EAQECC)を構築するための枠組みを提供する。 フレームワークの中心で、これは我々の論文の主要な技術的貢献の1つであり、追加コード $\mathcal{C}$ over $\mathcal{R}$ に対して、標準形式である $\mathcal{C}$ の生成セットを構築する手順である。 さらに、$\mathcal{R}$ がガロア環であるとき、$\mathcal{R}$ 上の加法符号から EAQECC を構成するのに必要な極大に絡み合ったクイディットのペアの最小数の正確な式を与え、これは有限体上の EAQECC の既知の結果を大きく拡張する。 また、付加的なコードに余分な座標を加えることで、構成結果のEAQECCのパラメータを決定する上で、ある程度の柔軟性が得られます。

In this paper, we provide a framework for constructing entanglement-assisted quantum error-correcting codes (EAQECCs) from classical additive codes over a finite commutative local Frobenius ring $\mathcal{R}$. At the heart of the framework, and this is one of the main technical contributions of our paper, is a procedure to construct, for an additive code $\mathcal{C}$ over $\mathcal{R}$, a generating set for $\mathcal{C}$ that is in standard form, meaning that it consists purely of isotropic generators and hyperbolic pairs. Moreover, when $\mathcal{R}$ is a Galois ring, we give an exact expression for the minimum number of pairs of maximally entangled qudits required to construct an EAQECC from an additive code over $\mathcal{R}$, which significantly extends known results for EAQECCs over finite fields. We also demonstrate how adding extra coordinates to an additive code can give us a certain degree of flexibility in determining the parameters of the EAQECCs that result from our construction.
翻訳日:2023-02-27 03:22:45 公開日:2023-01-08
# 量子相転移の指標としての接地状態と低次励起状態の混合状態の共有純度と共起性

Shared purity and concurrence of a mixture of ground and low-lying excited states as indicators of quantum phase transitions ( http://arxiv.org/abs/2202.03339v2 )

ライセンス: Link先を確認
George Biswas, Anindya Biswas and Ujjwal Sen(参考訳) 分離性絡み合いパラダイムとは独立な量子相関尺度である共有純度を,二成分絡み合い尺度であるconcurrenceと比較し,量子相転移指標としての有効性について検討した。 規則パラメータは、考慮された系の温度状態、擬似熱状態などについて検討される。 1次元の$j_1-j_2$ハイゼンベルク量子スピンモデルと1次元の横場量子イジングモデルの場合、共有純度は量子相転移を示すのに同値であることがわかった。 2次元の$J_1-J_2$ハイゼンベルク量子スピンモデルでは、共有純度はモデルに存在する2つの量子相転移を示す。 さらに, 奇数および偶数のラグ上の量子スピンに対して以前報告されたように, 1次元の \(J_1-J_2\) モデルによって支配される奇数および偶数サイズの系の遷移近傍の秩序パラメータに対する有限サイズスケーリング指数のばらつきが発見された。 偶数サイズのシステムでは通常の周期境界条件が十分であるのに対し、発散は奇数サイズのシステムでは M{\"o}bius のストリップのような境界条件に関係していると考えられる。

We investigate the efficacy of shared purity, a measure of quantum correlation that is independent of the separability-entanglement paradigm, as a quantum phase transition indicator in comparison with concurrence, a bipartite entanglement measure. The order parameters are investigated for thermal states, pseudo-thermal states and more, of the systems considered. In the case of the one-dimensional $J_1-J_2$ Heisenberg quantum spin model and the one-dimensional transverse-field quantum Ising model, shared purity turns out to be as effective as concurrence in indicating quantum phase transitions. In the two-dimensional $J_1-J_2$ Heisenberg quantum spin model, shared purity indicates the two quantum phase transitions present in the model, while concurrence detects only one of them. Moreover, we find diverging finite-size scaling exponents for the order parameters near the transitions in odd- and even-sized systems governed by the one-dimensional \(J_1-J_2\) model, as had previously been reported for quantum spins on odd- and even-legged ladders. It is plausible that the divergence is related to a M{\"o}bius strip-like boundary condition required for odd-sized systems, while for even-sized systems, the usual periodic boundary condition is sufficient.
翻訳日:2023-02-26 15:11:55 公開日:2023-01-08
# 多様な誤報:ネットワーク上のディープフェイクの検出に対するヒトのバイアスの影響

Diverse Misinformation: Impacts of Human Biases on Detection of Deepfakes on Networks ( http://arxiv.org/abs/2210.10026v2 )

ライセンス: Link先を確認
Juniper Lovato, Laurent H\'ebert-Dufresne, Jonathan St-Onge, Randall Harp, Gabriela Salazar Lopez, Sean P. Rogers, Ijaz Ul Haq and Jeremiah Onaolapo(参考訳) ソーシャルメディアのユーザーは、あらゆる誤報に等しく影響を受けない。 異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。 ユーザのバイアスが誤情報に対する感受性と相互修正能力にどのように影響するかを調べるために,コンピュータ生成ビデオ(ディープフェイク)の人間の分類を多様な誤情報の一種として分析する。 私たちは3つの理由から、ケーススタディとしてdeepfakesを選択しました。 1) 誤情報としての分類は,より客観的である。 2) 提示されたペルソナの人口動態を制御できる。 3) ディープフェイクは、より深く理解する必要がある害に関連する現実的な懸念である。 本稿では,米国在住の参加者がビデオに露出し,その属性について質問する調査(N=2,016)を報告する。 分析は, 異なる利用者の重複度と, ディープフェイクパーソナラの認知層が誤解を招く傾向の程度を測定した。 重要なことに、精度は人口統計によって大きく異なり、参加者はビデオ(特に白人の参加者)を分類するのが一般的である。 これらの結果から,多様な誤情報と群衆の補正の相互作用を理想化した数学的モデルを用いて,これらのバイアスの集団的影響を理解するために推定する。 我々のモデルは、友人同士がお互いの盲点を保護できる「隠れた修正」を提供するかもしれないことを示唆している。 他にも、人間の偏見や誤情報の特徴は大きいが、多様な社会集団を持つことは、誤情報に対する感受性を低下させる可能性がある。

Social media users are not equally susceptible to all misinformation. We call "diverse misinformation" the complex relationships between human biases and demographics represented in misinformation. To investigate how users' biases impact their susceptibility to misinformation and their ability to correct each other, we analyze human classification of computer-generated videos (deepfakes) as a type of diverse misinformation. We chose deepfakes as a case study for three reasons: 1) their classification as misinformation is more objective; 2) we can control the demographics of the personas presented; 3) deepfakes are a real-world concern with associated harms that need to be better understood. Our paper presents a survey (N=2,016) where U.S.-based participants are exposed to videos and asked questions about their attributes, not knowing some might be deepfakes. Our analysis measures the extent to which different users are duped and which perceived demographics of deepfake personas tend to mislead. Importantly, we find that accuracy varies significantly by demographics, and participants are generally better at classifying videos that match them (especially for white participants). We extrapolate from these results to understand the population-level impacts of these biases using an idealized mathematical model of the interplay between diverse misinformation and crowd correction. Our model suggests that a diverse set of contacts might provide "herd correction" where friends can protect each other's blind spots. Altogether, human biases and the attributes of misinformation matter greatly, but having a diverse social group may help reduce susceptibility to misinformation.
翻訳日:2023-02-19 11:52:20 公開日:2023-01-08
# 周期駆動型分極系の量子熱力学

Quantum thermodynamics of periodically driven polaritonic systems ( http://arxiv.org/abs/2207.00953v2 )

ライセンス: Link先を確認
Maicol A. Ochoa(参考訳) 常温定常状態における周期駆動型分極系のエネルギー分布と量子熱力学について検討した。 具体的には、高調波発振器に強く結合した励起子を、結合強度、駆動力、変形の関数として、2つの系間のエネルギー再編成と相互作用を定量化する。 弱い環境相互作用を持つポラリトン密度行列の量子マスター方程式を導出した後、散逸時間伝播子と平衡初期状態の長期発展を求める。 このアプローチは定常状態への直接アクセスを提供し、共鳴に近い弱減衰量子系の数値進化で生じる困難を克服し、また偏光子線形状の地図を提供する。 そして,高調波変調時の熱力学特性を計算し,共鳴時に最大効率が生じることを示す。 また,非可逆熱速度の式も提供し,熱力学則に一致することを数値的に示す。

We investigate the energy distribution and quantum thermodynamics in periodically driven polaritonic systems in the stationary state at room temperature. Specifically, we consider an exciton strongly coupled to a harmonic oscillator and quantify the energy reorganization between these two systems and their interaction as a function of coupling strength, driving force, and detuning. After deriving the quantum master equation for the polariton density matrix with weak environment interactions, we obtain the dissipative time propagator and the long-time evolution of an equilibrium initial state. This approach provides direct access to the stationary state and overcomes the difficulties found in the numerical evolution of weakly damped quantum systems near resonance, also providing maps on the polariton lineshape. Then, we compute the thermodynamic performance during harmonic modulation and demonstrate that maximum efficiency occurs at resonance. We also provide an expression for the irreversible heat rate and numerically demonstrate that this agrees with the thermodynamic laws.
翻訳日:2023-02-06 21:28:32 公開日:2023-01-08
# 確率過程のマスター方程式に対する量子分解アルゴリズム:減衰スピンの場合

Quantum Decomposition Algorithm For Master Equations of Stochastic Processes: The Damped Spin Case ( http://arxiv.org/abs/2207.02755v3 )

ライセンス: Link先を確認
M. W. AlMasri, M. R. B. Wahiddin(参考訳) 我々は、問題 $\frac{\partial \rho}{\partial t}=\mathcal{l}\rho=\lambda \rho$ を位相空間変数の固有値の和に分解する量子分解アルゴリズム(qda)を導入する。 QDAの興味深い特徴の1つは、元の固有値問題の固有値に調整された純粋量子調和振動子を用いて減衰スピン系をシミュレートする能力に由来する。 提案手法は, 自発放出とデファス化を伴う非駆動量子ビットの場合に適用する。

We introduce a quantum decomposition algorithm (QDA) that decomposes the problem $\frac{\partial \rho}{\partial t}=\mathcal{L}\rho=\lambda \rho$ into a summation of eigenvalues times phase-space variables. One interesting feature of QDA stems from its ability to simulate damped spin systems by means of pure quantum harmonic oscillators adjusted with the eigenvalues of the original eigenvalue problem. We test the proposed algorithm in the case of undriven qubit with spontaneous emission and dephasing.
翻訳日:2023-02-06 09:39:59 公開日:2023-01-08
# 地熱資源を用いた自律量子時計

Autonomous quantum clocks using athermal resources ( http://arxiv.org/abs/2207.07909v2 )

ライセンス: Link先を確認
Sreenath K. Manikandan(参考訳) ここでは、熱水資源を用いた量子系における正確な時間維持の可能性を探る。 量子時計を駆動する熱水資源として, 量子計測技術を用いた貯水池が利用できることを示す。 2レベルと3レベルの量子系はモデル内のトランスデューサとして働き、量子測定によるノイズを一連のダニに変換します。 観測可能な観測値が時計のハミルトニアンと最大で非可換であるとき、時計のチッキング速度は最大になる。 我々は、ある時間内に観測されたダニの統計を特徴付けるために、大きな偏差原理を使用し、それが、マンデルのQパラメータによって定量化される、サブポアソニアンであることを示す。 我々は、クロックの精度と効率を議論し、測定と熱資源の両方によって引き起こされるハイブリッド量子時計を含むように枠組みを拡張した。 量子時計に関する最近の提案との比較を行い, 量子計測による非平衡条件の抽出を, クロック実現を超越した代替デバイス実装について検討する。

Here we explore the possibility of precise time-keeping in quantum systems using athermal resources. We show that quantum measurement engineered reservoirs can be used as athermal resources to drive the ticks of a quantum clock. Two and three level quantum systems act as transducers in our model, converting the quantum measurement induced noise to produce a series of ticks. The ticking rate of the clock is maximized when the measured observable maximally non-commutes with the clock's Hamiltonian. We use the large deviation principle to characterize the statistics of observed ticks within a given time-period and show that it can be sub-Poissonian -- quantified by Mandel's Q parameter -- alluding to the quantum nature of the clock. We discuss the accuracy and efficiency of the clock, and extend our framework to include hybrid quantum clocks fueled by both measurements, and thermal resources. We make comparisons to relatable recent proposals for quantum clocks, and discuss alternate device implementations harvesting the quantum measurement engineered non-equilibrium conditions, beyond the clock realization.
翻訳日:2023-02-04 20:28:44 公開日:2023-01-08
# リアルタイム量子貯水池計算のためのスケーラブルフォトニックプラットフォーム

Scalable photonic platform for real-time quantum reservoir computing ( http://arxiv.org/abs/2207.14031v2 )

ライセンス: Link先を確認
Jorge Garc\'ia-Beni, Gian Luca Giorgi, Miguel C. Soriano and Roberta Zambrini(参考訳) 量子Reservoir Computing (QRC) は、量子システムの情報処理能力を利用して、非自明な時間的タスクを解決する。 近年の進展により、qrc が拡大ヒルベルト空間を利用する可能性が示されたが、リアルタイム処理と資源の効率的な利用による量子優位性の達成は、実験的な実現に向けた大きな課題となっている。 本研究では,閉ループで再循環する同一の光パルスの形で,貯留層の物理的アンサンブルに基づく実時間qrcに適したフォトニックプラットフォームを提案する。 理想的な演算は最大容量を達成するが、統計ノイズは量子的優位性を損なう。 本稿では,この制限を克服し,システムのサイズをスケールアップする際のQRC性能を維持するための戦略を提案する。 このプラットフォームは、現在の技術で実行可能な実験的な実装が考えられている。

Quantum Reservoir Computing (QRC) exploits the information processing capabilities of quantum systems to solve non-trivial temporal tasks, improving over their classical counterparts. Recent progress has shown the potential of QRC exploiting the enlarged Hilbert space, but real-time processing and the achievement of a quantum advantage with efficient use of resources are prominent challenges towards viable experimental realizations. In this work, we propose a photonic platform suitable for real-time QRC based on a physical ensemble of reservoirs in the form of identical optical pulses recirculating through a closed loop. While ideal operation achieves maximum capacities, statistical noise is shown to undermine a quantum advantage. We propose a strategy to overcome this limitation and sustain the QRC performance when the size of the system is scaled up. The platform is conceived for experimental implementations to be viable with current technology.
翻訳日:2023-02-03 05:10:33 公開日:2023-01-08
# ベーテ対数の評価:原子から化学反応へ

Evaluation of the Bethe logarithm: from atom to chemical reaction ( http://arxiv.org/abs/2208.03033v3 )

ライセンス: Link先を確認
D\'avid Ferenc and Edit M\'atyus(参考訳) 非相対論的(非相対論的) Bethe logarithm の一般計算スキームは、小型の多原子・多電子分子系に対する分光的応用に関係した先行量子電磁力学補正(QED)の 'routine' 評価への道を開いた。 この実装はシュワルツの方法とhylleraas関数の最小化に依存している。 電子励起状態に関して、投影法が考慮され、パラメータ(光子運動量)の範囲全体にわたって関数の正定性を保証する。 この実装を用いて、ベーテ対数は、2電子H$_2$とH$_3^+$と3電子H$_2^+$とH+H$_2$分子系の選択された電子状態に対して1:10$^3$よりも高い精度で収束する。 本研究は、ポテンシャルエネルギー表面の局所的な最小値付近の核配置に焦点を当てるが、他の構造に対しても計算を繰り返すことができる。

A general computational scheme for the (non-relativistic) Bethe logarithm is developed opening the route to `routine' evaluation of the leading-order quantum electrodynamics correction (QED) relevant for spectroscopic applications for small polyatomic and polyelectronic molecular systems. The implementation relies on Schwartz' method and minimization of a Hylleraas functional. In relation with electronically excited states, a projection technique is considered, which ensures positive definiteness of the functional over the entire parameter (photon momentum) range. Using this implementation, the Bethe logarithm is converged to a relative precision better than 1:10$^3$ for selected electronic states of the two-electron H$_2$ and H$_3^+$, and the three-electron He$_2^+$ and H+H$_2$ molecular systems. The present work focuses at nuclear configurations near the local minimum of the potential energy surface, but the computations can be repeated also for other structures.
翻訳日:2023-02-02 04:55:13 公開日:2023-01-08
# schr\"odingerist量子熱力学について

On Schr\"odingerist Quantum Thermodynamics ( http://arxiv.org/abs/2208.07688v8 )

ライセンス: Link先を確認
Leonardo De Carlo and W. David Wick(参考訳) Schr\ "odingerism" の観点からは、波動関数のみの哲学である熱力学は古典的な粒子配置やコペンハーゲン量子力学の「ファウンド」値ではなく、波動関数のアンサンブルの観点から再キャストされなければならない。 ここでは, 古典的に低温磁化状態への相転移を示すマグネットのいくつかのモデルについて考察する。 我々は、 ``schr\"odingerist quantum ising model" (squim)、 ``schr\"odingerist curie-weiss model" (scwm)などを含む波動関数の類似式を定式化する。 We show that the SQUIM with free boundary conditions and distinguishable ``spins" has no finite-temperature phase transition, which we attribute to entropy swamping energy. The SCWM likewise, even assuming exchange symmetry in the wavefunction (in this case the analytical argument is not totally satisfactory and we helped ourself with a computer analysis). But a variant model with ``wavefunction energy" (introduced in prior communications about Schr\"odingerism and the Measurement Problem) does have a phase transition to a magnetised state. 3つの結果は、大きな量子スピン鎖における磁化が、不明瞭な粒子と大きな$N$を考えると、エネルギー保存によってマクロな分散をブロックする重ね合わせの原理を破る場合にのみ現れることを示唆している。 我々の原理的手法は、問題を確率論において 1 に変換し、大偏差、特に G\"artner-Ellis Theorem の結果を適用することである。 最後に、Gibs vs. Boltzmann/Einstein entropyの量子熱力学的アンサンブルの選択と開問題について議論する。 PhySH: 量子理論、量子統計力学、大きな偏差と稀な事象統計。

From the point of view of Schr\"odingerism, a wavefunction-only philosophy, thermodynamics must be recast in terms of an ensemble of wavefunctions, rather than classical particle configurations or ``found" values of Copenaghen Quantum Mechanics. Recapitulating the historical sequence, we consider here several models of magnets that classically can exhibit a phase transition to a low-temperature magnetized state. We formulate wavefunction analogues including a ``Schr\"odingerist QUantum Ising Model" (SQUIM), a ``Schr\"odingerist Curie-Weiss Model" (SCWM), and others. We show that the SQUIM with free boundary conditions and distinguishable ``spins" has no finite-temperature phase transition, which we attribute to entropy swamping energy. The SCWM likewise, even assuming exchange symmetry in the wavefunction (in this case the analytical argument is not totally satisfactory and we helped ourself with a computer analysis). But a variant model with ``wavefunction energy" (introduced in prior communications about Schr\"odingerism and the Measurement Problem) does have a phase transition to a magnetised state. The three results together suggest that magnetization in large quantum spin chains appears if and only if we consider indistinguishable particles and for large $N$ we break the superposition principle blocking macroscopic dispersion by energy conservation. Our principle technique involves transforming the problem to one in probability theory, then applying results from Large Deviations, particularly the G\"artner-Ellis Theorem. Finally, we discuss Gibbs vs. Boltzmann/Einstein entropy in the choice of the quantum thermodynamic ensemble, as well as open problems. PhySH: quantum theory, quantum statistical mechanics, large deviation & rare event statistics.
翻訳日:2023-01-30 22:53:48 公開日:2023-01-08
# アンサンブル機械学習による蛍光白金(II)錯体の光物性の予測

Predictions of photophysical properties of phosphorescent platinum(II) complexes based on ensemble machine learning approach ( http://arxiv.org/abs/2301.05639v1 )

ライセンス: Link先を確認
Shuai Wang (1), ChiYung Yam (2,3), Shuguang Chen (1,2), Lihong Hu (4), Liping Li (2), Faan-Fung Hung (1,2), Jiaqi Fan (2), Chi-Ming Che (1,2), and GuanHua Chen (1,2) ((1) Department of Chemistry, The University of Hong Kong, Pokfulam, Hong Kong SAR, China (2) Hong Kong Quantum AI Lab Limited, Pak Shek Kok, Hong Kong SAR, China (3) Shenzhen Institute for Advanced Study, University of Electronic Science and Technology of China, Shenzhen, 518000, China (4) School of Information Science and Technology, Northeast Normal University, Changchun, 130117, China)(参考訳) 蛍光金属錯体はエネルギー効率の良い有機発光ダイオード(OLED)の放出剤として激しく研究されている。 このうち、シクロメタル化Pt(II)錯体は、発色可能な三重項発光体である。 OLEDエミッタとして実用化するためには、高い放射減衰率定数(k_r$)と光ルミネッセンス(PL)量子収率を持つPt(II)錯体を開発する必要がある。 したがって、効率的かつ正確な予測ツールが望まれる。 本稿では,第1原理量子力学法,機械学習(ML),実験校正の組み合わせにより,蛍光Pt(II)エミッタの発光波長,放射減衰速度定数,PL量子収率を正確に予測するための汎用プロトコルを開発した。 蛍光性Pt(II)エミッタに関する新しいデータセットを構築し、200以上のサンプルを文献から収集した。 錯体の関連する電子的性質を含む特徴が選択される。 以上の結果から,2乗相関係数 (R^2$), 平均絶対誤差 (MAE), 根平均二乗誤差 (RMSE) は放射波長予測では0.96, 7.21 nm, 13.00 nm, PL量子収率予測では0.81, 0.11, 0.15 である。 放射減衰速度定数(k_r$)は、得られたr^2$の値は 0.67 であり、mae と rmse はそれぞれ 0.21 と 0.25 である。 Pt(II)エミッタの広いパレットの信頼性を示す24個の報告されたPt(II)錯体を用いてプロトコルの精度をさらに確認し,このプロトコルが望ましい性質を持つ新規OLED材料の合理的設計を加速する,貴重なツールになると期待する。

Phosphorescent metal complexes have been under intense investigations as emissive dopants for energy efficient organic light emitting diodes (OLEDs). Among them, cyclometalated Pt(II) complexes are widespread triplet emitters with color-tunable emissions. To render their practical applications as OLED emitters, it is in great need to develop Pt(II) complexes with high radiative decay rate constant ($k_r$) and photoluminescence (PL) quantum yield. Thus, an efficient and accurate prediction tool is highly desirable. Here, we develop a general protocol for accurate predictions of emission wavelength, radiative decay rate constant, and PL quantum yield for phosphorescent Pt(II) emitters based on the combination of first-principles quantum mechanical method, machine learning (ML) and experimental calibration. A new dataset concerning phosphorescent Pt(II) emitters is constructed, with more than two hundred samples collected from the literature. Features containing pertinent electronic properties of the complexes are chosen. Our results demonstrate that ensemble learning models combined with stacking-based approaches exhibit the best performance, where the values of squared correlation coefficients ($R^2$), mean absolute error (MAE), and root mean square error (RMSE) are 0.96, 7.21 nm and 13.00 nm for emission wavelength prediction, and 0.81, 0.11 and 0.15 for PL quantum yield prediction. For radiative decay rate constant ($k_r$), the obtained value of $R^2$ is 0.67 while MAE and RMSE are 0.21 and 0.25 (both in log scale), respectively. The accuracy of the protocol is further confirmed using 24 recently reported Pt(II) complexes, which demonstrates its reliability for a broad palette of Pt(II) emitters.We expect this protocol will become a valuable tool, accelerating the rational design of novel OLED materials with desired properties.
翻訳日:2023-01-29 14:16:04 公開日:2023-01-08
# ヒッグスポテンシャルのないモデルによるスセイ破砕における放射質量増加の量子シミュレーション

A Model without Higgs Potential for Quantum Simulation of Radiative Mass-Enhancement in SUSY Breaking ( http://arxiv.org/abs/2210.02778v4 )

ライセンス: Link先を確認
Masao Hirokawa(参考訳) n=2超対称量子力学における質量拡張のモデルについて検討し,超対称性(susy)が自発的に破られたときに生じる質量拡張の量子シミュレーションとして実装できるほど簡単なモデルである。 これは量子ラビモデルに基づくプロトタイプから発展したものである。 原型は数学的モデルとして与えられ、N=2 SUSYから自発破砕へと遷移するが、質量増強はない。 近年, この試薬を用いた遷移は, イオントラップ実験で観察され, その遷移を実現する方法が実験的に考案された。 本稿では,SUSY破砕時に1モードの重粒子が別の1モードの光子を励起することによって,質量の一部を取得する方法について述べる。 我々のモデルの相互作用はヒッグスポテンシャルを持たないが、その質量はボゾン状態とフェルミオン状態の交換の助けを借りて放射的に増強される。 質量増強による遷移は、トラップイオン実験で用いられる偏差の下で起こる。

We study the model of a mass enhancement in the N=2 supersymmetric quantum mechanics.This model is so simple that it may be implemented as a quantum simulation of the mass enhancement taking place when supersymmetry (SUSY) is spontaneously broken. It is evolved from a prototype based on the quantum Rabi model. The original prototype is given as a mathematical model, and has the transition from the N=2 SUSY to its spontaneous breaking, though it has no mass enhancement. It is lately reported that the transition using this prototype is observed in a trapped-ion experiment with devising a method experimentally to realize the transition. The model proposed in this paper describes how a 1-mode heavy boson acquires a part of its mass from the excitation of another 1-mode light boson in the SUSY breaking. Although our model's interaction does not have the Higgs potential, its mass is radiatively enhanced with the help of the swap between the bosonic and fermionic states. The transition with the mass enhancement occurs under the devise used in the trapped-ion experiment.
翻訳日:2023-01-23 15:00:46 公開日:2023-01-08
# 非エルミート模型における境界状態の連続体

Continuum of Bound States in a Non-Hermitian Model ( http://arxiv.org/abs/2210.03738v2 )

ライセンス: Link先を確認
Qiang Wang, Changyan Zhu, Xu Zheng, Haoran Xue, Baile Zhang and Y. D. Chong(参考訳) エルミート系では、有界状態は量子化されたエネルギーを持つ必要があるが、拡張状態は連続体を形成することができる。 この原理が非エルミート系に対してどのように失敗するかを、虚運動量とランダウ型ベクトルポテンシャルで非エルミート連続ハミルトニアンを解析することによって示す。 我々が 'Continuum Landau modes' (CLMs) と呼ぶ固有状態はガウス空間の包絡を持ち、複素エネルギー平面を満たす連続体を形成する。 我々はCLMの研究に使用できる実験で実現可能な1次元格子モデルと2次元格子モデルを提案し、格子固有状態は局所化され、連続モデルと同じ特徴を持つ。 これらの格子の1つはレインボートラップとして機能し、励起に対する応答は周波数に比例した位置に集中する。 別の格子は波ファンネルを作用させ、入力励起を広い周波数帯域で境界に集中させることができる。 非エルミート皮膚効果に基づく最近のファンネリングスキームとは異なり、これは非相互結合を伴わない単純な格子設計のみを必要とする。

In a Hermitian system, bound states must have quantized energies, whereas extended states can form a continuum. We demonstrate how this principle fails for non-Hermitian systems, by analyzing non-Hermitian continuous Hamiltonians with an imaginary momentum and Landau-type vector potential. The eigenstates, which we call ``continuum Landau modes'' (CLMs), have gaussian spatial envelopes and form a continuum filling the complex energy plane. We present experimentally-realizable 1D and 2D lattice models that can be used to study CLMs; the lattice eigenstates are localized and have other features that are the same as in the continuous model. One of these lattices can serve as a rainbow trap, whereby the response to an excitation is concentrated at a position proportional to the frequency. Another lattice can act a wave funnel, concentrating an input excitation onto a boundary over a wide frequency bandwidth. Unlike recent funneling schemes based on the non-Hermitian skin effect, this requires only a simple lattice design without nonreciprocal couplings.
翻訳日:2023-01-23 14:33:43 公開日:2023-01-08
# 水素分子の電子励起状態に対するプレボン・オッペンハイマーエネルギー、先行相対論的およびQED補正

Pre-Born-Oppenheimer energies, leading-order relativistic and QED corrections for electronically excited states of molecular hydrogen ( http://arxiv.org/abs/2210.09653v3 )

ライセンス: Link先を確認
Eszter Saly, D\'avid Ferenc, Edit M\'atyus(参考訳) 水素分子の電子状態が$B$および$B'\ ^1\Sigma_\text{u}^+$のロビブロニック状態の場合、ボーン-オッペンハイマー(4粒子)非相対論的エネルギーは1-3の相対的精度に収束する。 4粒子の非相対論的エネルギーは、先行相対論的、先導的、推定された高次量子電気力学の補正で付加される。 実験結果と良好に一致して、rovibronic ground stateを参照する結果の項値を求める。 さらに、$C\ ^1\Pi_\text{u}$および$EF,GK,$および$HH\ ^1\Sigma_\text{g}^+$電子状態に割り当てられる他のロビブロニック状態について報告し議論する。

For rovibronic states corresponding to the $B$ and $B'\ ^1\Sigma_\text{u}^+$ electronic states of the hydrogen molecule, the pre-Born--Oppenheimer (four-particle) non-relativistic energy is converged to a 1-3 parts-per-billion relative precision. The four-particle non-relativistic energy is appended with leading-order relativistic, leading- and estimated higher-order quantum-electrodynamics corrections. The resulting term values referenced to the rovibronic ground state are obtained in an excellent agreement with the experimental results. Further results are reported and discussed for other rovibronic states assignable to the $C\ ^1\Pi_\text{u}$ and the $EF,GK,$ and $HH\ ^1\Sigma_\text{g}^+$ electronic states.
翻訳日:2023-01-22 04:37:44 公開日:2023-01-08
# 多体系における絡み合い深さと整合性の十分な基準としての線形写像

Linear maps as sufficient criteria for entanglement depth and compatibility in many-body systems ( http://arxiv.org/abs/2211.02871v2 )

ライセンス: Link先を確認
Maciej Lewenstein, Guillem M\"uller-Rigat, Jordi Tura, Anna Sanpera(参考訳) 物理変換は、完全に正かつトレース保存(CPTP)である線形写像によって記述される。 しかし、正(P)であるが完全正(CP)ではない写像は分離性/絡み合いの基準を導出する。 さらに、そのような写像の性質は、彼らが検出する状態の絡み合い特性に関連付けることができる。 ここでは,両部類系に対する十分な分離性基準を導出する[Phys. Rev A 93, 042335 (2016)]の結果を拡張した。 特に、任意の状態に適用された場合、1:(N-1)$パーティション、すなわち$(N-1)$-エンタングルメント深さに対して二分可能な状態となる線形写像を提案することによって、$N$-qubitシステムの絡み深さを分析する。 さらに、完全非分極状態(正規化同一行列)の近傍の状態に合わせた任意の$(n-n)$-エンタングルメント深さを検出するための基準を導出する。 また、対角状態を含む対称セクターにおける分離性(または1ドル絡み深さ)の条件も提供する。 最後に、類似した地図技術を用いて、予測値の集合が分離可能な状態や局所隠れ変数理論と互換性を持つ十分な条件を導出する方法を提案する。 本論文は,リニアマップの分野における我々の精神的,知的メンターであるandrzej kossakowski の記憶に焦点をあてたものである。

Physical transformations are described by linear maps that are completely positive and trace preserving (CPTP). However, maps that are positive (P) but not completely positive (CP) are instrumental to derive separability/entanglement criteria. Moreover, the properties of such maps can be linked to entanglement properties of the states they detect. Here, we extend the results presented in [Phys. Rev A 93, 042335 (2016)], where sufficient separability criteria for bipartite systems were derived. In particular, we analyze the entanglement depth of an $N$-qubit system by proposing linear maps that, when applied to any state, result in a bi-separable state for the $1:(N-1)$ partitions, i.e., $(N-1)$-entanglement depth. Furthermore, we derive criteria to detect arbitrary $(N-n)$-entanglement depth tailored to states in close vicinity of the completely depolarized state (the normalized identity matrix). We also provide separability (or $1$- entanglement depth) conditions in the symmetric sector, including for diagonal states. Finally, we suggest how similar map techniques can be used to derive sufficient conditions for a set of expectation values to be compatible with separable states or local-hidden-variable theories. We dedicate this paper to the memory of the late Andrzej Kossakowski, our spiritual and intellectual mentor in the field of linear maps.
翻訳日:2023-01-20 06:35:42 公開日:2023-01-08
# 深層学習のための変分テンソルニューラルネットワーク

Variational Tensor Neural Networks for Deep Learning ( http://arxiv.org/abs/2211.14657v2 )

ライセンス: Link先を確認
Saeed S. Jahromi, Roman Orus(参考訳) ディープニューラルネットワーク(NN)は、多数のニューロンを考慮するとスケーリングの問題に悩まされるため、アクセス可能なレイヤ数も制限される。 そこで本研究では,変分DMRG様最適化と組み合わせて,テンソルネットワーク(TN)をNNに統合することを提案する。 これによりスケーラブルなテンソルニューラルネットワーク(TNN)アーキテクチャが実現され、多数のニューロンやレイヤに対して効率的にトレーニングすることができる。 変分アルゴリズムは局所的な勾配-退化法に依存しており、テンソル勾配は手動でも自動微分でも計算可能であり、高密度層とテンソル層を組み合わせたハイブリッドTNNモデルを可能にする。 我々のトレーニングアルゴリズムは、テンソル化トレーニング可能な重みの絡み合い構造に関する洞察を提供し、量子神経状態としての表現力を明らかにする。 異なるデータセットの回帰と分類のためのTNNモデルを設計することで、アルゴリズムの精度と効率をベンチマークする。 さらに,ニューラルネットワークの絡み合い構造に基づくアルゴリズムの表現力についても考察する。

Deep neural networks (NN) suffer from scaling issues when considering a large number of neurons, in turn limiting also the accessible number of layers. To overcome this, here we propose the integration of tensor networks (TN) into NNs, in combination with variational DMRG-like optimization. This results in a scalable tensor neural network (TNN) architecture that can be efficiently trained for a large number of neurons and layers. The variational algorithm relies on a local gradient-descent technique, with tensor gradients being computable either manually or by automatic differentiation, in turn allowing for hybrid TNN models combining dense and tensor layers. Our training algorithm provides insight into the entanglement structure of the tensorized trainable weights, as well as clarify the expressive power as a quantum neural state. We benchmark the accuracy and efficiency of our algorithm by designing TNN models for regression and classification on different datasets. In addition, we also discuss the expressive power of our algorithm based on the entanglement structure of the neural network.
翻訳日:2023-01-17 18:21:23 公開日:2023-01-08
# 分析関連指標

Analogical Relevance Index ( http://arxiv.org/abs/2301.04134v1 )

ライセンス: Link先を確認
Suryani Lim, Henri Prade, Gilles Richard(参考訳) データセットの最も重要な機能にフォーカスすることは、機械学習(ML)とデータマイニングの両方で有用である。 MLでは、より高い精度、より高速な学習プロセス、そして究極的にはよりシンプルで理解しやすいモデルにつながる可能性がある。 データマイニングでは、重要な特徴を特定することは、データの理解を深めるだけでなく、視覚化にも不可欠である。 本稿では,類似の比率に触発された重要な特徴を識別する新しい手法を提案する。 このような比例は「a は b であって c は d である」という形のものであり、類似点と相似点の2つの項目 (a, b) と (c, d) を比較している。 分類文脈において、a と b の類似性と a と b が異なるラベルを持つという事実とが一致する場合、この知識は c と d に移され、c と d も異なるラベルを持つと推定される。 特徴選択の観点からは、a と b が異なるラベルを持つような膨大な数のペア (a, b) を観察することは、a と b が異なる特徴の重要性を示唆する。 この考え方に従い,ラベルに対する特徴の意義に関する新しい統計テストであるアナロジー・アソシエーション・インデックス(ari)を導入する。 ARIはフィルタベースの手法である。 フィルタベースのメソッドはMLに依存しないが、一般的に特徴冗長性を扱うことができない。 しかし、ARIは特徴の冗長性を検出することができる。 実験の結果,ARIは多種多様な人工的および実際のデータセットにおいて,よく知られた手法よりも優れていることがわかった。

Focusing on the most significant features of a dataset is useful both in machine learning (ML) and data mining. In ML, it can lead to a higher accuracy, a faster learning process, and ultimately a simpler and more understandable model. In data mining, identifying significant features is essential not only for gaining a better understanding of the data but also for visualization. In this paper, we demonstrate a new way of identifying significant features inspired by analogical proportions. Such a proportion is of the form of "a is to b as c is to d", comparing two pairs of items (a, b) and (c, d) in terms of similarities and dissimilarities. In a classification context, if the similarities/dissimilarities between a and b correlate with the fact that a and b have different labels, this knowledge can be transferred to c and d, inferring that c and d also have different labels. From a feature selection perspective, observing a huge number of such pairs (a, b) where a and b have different labels provides a hint about the importance of the features where a and b differ. Following this idea, we introduce the Analogical Relevance Index (ARI), a new statistical test of the significance of a given feature with respect to the label. ARI is a filter-based method. Filter-based methods are ML-agnostic but generally unable to handle feature redundancy. However, ARI can detect feature redundancy. Our experiments show that ARI is effective and outperforms well-known methods on a variety of artificial and some real datasets.
翻訳日:2023-01-12 14:10:55 公開日:2023-01-08
# 第二種伝説関数の例外点

Exceptional points for associated Legendre functions of the second kind ( http://arxiv.org/abs/2301.04092v1 )

ライセンス: Link先を確認
Tianye Liu, Daniel A. Norman and Philip D. Mannheim(参考訳) 第二種 $Q^{-1/2-K}_{\nu}(\cosh\rho)$ のルジャンドル関数の複素$\nu$平面構造を考える。 任意の非整数値が$k$$ $q^{-1/2-k}_{\nu}(\cosh\rho)$ に対して、複素 $\nu$ 平面において無限個の極を持つが、負の整数 $k$ に対しては極は存在しない。 k=0$ または任意の正の整数 $k$ に対して、有限個の極しか存在せず、$k=0$ のとき 1 つの極($\nu=0$)しか存在しない。 このパターンは、様々な物理的文脈に現れる例外的な点の特徴である。 しかし、例外的な点を持つ理論では、$Q^{-1/2-K}_{\nu}(\cosh\rho)$ は無限個の数を持つ。 PT$対称性のヨルダンブロックの場合以外では、例外点は通常パラメータの複素値で発生する。 ジョルダンブロックの例外点自身ではないが、$Q^{-1/2-K}_{\nu}(\cosh\rho)$に付随する例外点は、実際には$K$である。

We consider the complex $\nu$ plane structure of the associated Legendre function of the second kind $Q^{-1/2-K}_{\nu}(\cosh\rho)$. We find that for any noninteger value for $K$ $Q^{-1/2-K}_{\nu}(\cosh\rho)$ has an infinite number of poles in the complex $\nu$ plane, but for any negative integer $K$ there are no poles at all. For $K=0$ or any positive integer $K$ there is only a finite number of poles, with there only being one single pole (at $\nu=0$) when $K=0$. This pattern is characteristic of the exceptional points that appear in a wide variety of physical contexts. However, unusually for theories with exceptional points, $Q^{-1/2-K}_{\nu}(\cosh\rho)$ has an infinite number of them. Other than in the $PT$-symmetry Jordan-block case, exceptional points usually occur at complex values of parameters. While not being Jordan-block exceptional points themselves, the exceptional points associated with the $Q^{-1/2-K}_{\nu}(\cosh\rho)$ nonetheless occur at real values of $K$.
翻訳日:2023-01-11 18:05:40 公開日:2023-01-08
# ダブルウェルポテンシャルによる強相互作用型冷媒の指数減衰について

On the Exponential Decay of Strongly Interacting Cold Atoms from a Double-Well Potential ( http://arxiv.org/abs/2301.03082v1 )

ライセンス: Link先を確認
Przemys{\l}aw Ko\'scik(参考訳) 本稿では,二重ウェルポテンシャルから強い反発性デルタ相互作用を持つボソンガスの指数関数的崩壊について検討する。 無限の壁と2つのディラックデルタ障壁からなる、正確に解けるモデルを考える。 我々は、その特徴を、正確な方法と共鳴展開アプローチの両方で検討する。 本研究は, 分散障壁が粒子数依存性の減衰速度に及ぼす影響を明らかにした。 中でも, 分散障壁が崩壊速度に及ぼす影響は, 奇粒子数系において最も顕著であることがわかった。 指数的崩壊の間、内部領域における空間相関は「放射状態」によってよく捉えられる。

In this article, we study an exponential decay for the gas of bosons with strong repulsive delta interactions from a double-well potential. We consider an exactly solvable model comprising an infinite wall and two Dirac delta barriers. We explore its features both within the exact method and with the resonance expansion approach. The study reveals the effect of the splitting barrier on the decay rate in dependence on the number of particles. Among other things, we find that the effect of the splitting barrier on the decay rate is most pronounced in systems with odd particle numbers. During exponential decay, the spatial correlations in an internal region are well captured by the "radiating state".
翻訳日:2023-01-11 17:56:38 公開日:2023-01-08
# 量子力学の決定論的理論における「特殊」状態の必要性

Need for "special" states in a deterministic theory of quantum mechanics ( http://arxiv.org/abs/2301.04021v1 )

ライセンス: Link先を確認
L. S. Schulman(参考訳) 量子力学を裏付け、決定論的にするいくつかの理論や過程がある。 本文にはいくつかの引用がある。 そのような理論と多くの合理的な仮定は、私が「特別」状態と呼ぶものの存在を暗示している。この仮定は、多くの世界解釈(最後の1つは任意の決定論的な理論の結果である)の意味で、シュロディンガーの方程式の(一点までの)従属性、そして1つの世界である。この記事では、明快に「特別」状態の例を示す。 特別」状態理論の実験的なテストがある。

There are several theories or processes which may underlie quantum mechanics and make it deterministic. Some references are given in the main text. Any such theory, plus a number of reasonable assumptions, implies the existence of what I have called ``special" states. The assumptions are conservation laws, obedience (up to a point) of Schrodinger's equation, and a single world, in the sense of the many worlds interpretation (the last one a consequence of any deterministic theory). This article also, for clarity, gives an example of a ``special" state. There is an experimental test of the ``special" state theory.
翻訳日:2023-01-11 17:11:34 公開日:2023-01-08
# ペルーの野菜輸入に適用される機械学習

Machine Learning Applied to Peruvian Vegetables Imports ( http://arxiv.org/abs/2301.03587v1 )

ライセンス: Link先を確認
Hugo Ticona-Salluca, Fred Torres-Cruz, Ernesto Nayer Tumi-Figueroa(参考訳) 現在の研究は、訓練と評価の対象として開発されている。 人工知能アルゴリズムを使用して、ペルーへの野菜製品の輸入に適用するための予測モデルのパフォーマンス。この研究のために、機械学習モデル:LSTMとPROPHETを指定する。 2021年から2022年にかけて収集されたペルーの野菜製品(キログラム)の月間輸入記録のデータで予測されている。 自動学習アルゴリズムのトレーニング手法の適用の一環として、時系列のパラメータに従って適切なデータセットの探索と構築を行う。 その後、より優れた性能のモデルが選択され、予測値の精度が評価され、ペルーの輸入予測に有用な資源であると考えるのに十分な信頼性が説明される。

The current research work is being developed as a training and evaluation object. the performance of a predictive model to apply it to the imports of vegetable products into Peru using artificial intelligence algorithms, specifying for this study the Machine Learning models: LSTM and PROPHET. The forecast is made with data from the monthly record of imports of vegetable products(in kilograms) from Peru, collected from the years 2021 to 2022. As part of applying the training methodology for automatic learning algorithms, the exploration and construction of an appropriate dataset according to the parameters of a Time Series. Subsequently, the model with better performance will be selected, evaluating the precision of the predicted values so that they account for sufficient reliability to consider it a useful resource in the forecast of imports in Peru.
翻訳日:2023-01-11 17:03:55 公開日:2023-01-08
# 解釈可能な画像分類のための学習支援と試行プロトタイプ

Learning Support and Trivial Prototypes for Interpretable Image Classification ( http://arxiv.org/abs/2301.04011v1 )

ライセンス: Link先を確認
Chong Wang, Yuyuan Liu, Yuanhong Chen, Fengbei Liu, Yu Tian, Davis J. McCarthy, Helen Frazer, Gustavo Carneiro(参考訳) 原型部分ネットワーク (ProtoPNet) 法は, 特徴空間の分類境界から遠く離れた位置にあるように訓練されることから, 自明な(簡単に学習できる)プロトタイプと呼ぶ一連のトレーニングプロトタイプと予測を関連付けることによって, 解釈可能な分類を実現するように設計されている。 両方の方法からの分類は、一連のトレーニングポイント(つまり、protopnetにおける自明なプロトタイプと、svmにおけるサポートベクター)との類似性を計算することに依存しているため、protopnetとサポートベクターマシン(svm)の類似化が可能である。 しかしながら、自明なプロトタイプは分類境界から遠く離れた位置にあるが、支持ベクトルはこの境界に近い位置にあり、よく確立されたSVM理論とのこの相違は、最適な分類精度を持つ ProtoPNet モデルをもたらすと論じる。 本稿では,SVM理論により提案される特徴空間の分類境界付近にある支援プロトタイプを学習するための新しい手法により,ProtoPNetの分類精度を向上させることを目的とする。 さらに,新しいモデルであるst-protopnetを用いて分類可能性の向上を目標とし,サポートプロトタイプと自明なプロトタイプを利用して補完的解釈情報を提供する。 CUB-200-2011、Stanford Cars、Stanford Dogsのデータセットによる実験結果から、提案手法は最先端の分類精度を達成し、より視覚的に有意義で多様なプロトタイプを生成することを示した。

Prototypical part network (ProtoPNet) methods have been designed to achieve interpretable classification by associating predictions with a set of training prototypes, which we refer to as trivial (i.e., easy-to-learn) prototypes because they are trained to lie far from the classification boundary in the feature space. Note that it is possible to make an analogy between ProtoPNet and support vector machine (SVM) given that the classification from both methods relies on computing similarity with a set of training points (i.e., trivial prototypes in ProtoPNet, and support vectors in SVM). However, while trivial prototypes are located far from the classification boundary, support vectors are located close to this boundary, and we argue that this discrepancy with the well-established SVM theory can result in ProtoPNet models with suboptimal classification accuracy. In this paper, we aim to improve the classification accuracy of ProtoPNet with a new method to learn support prototypes that lie near the classification boundary in the feature space, as suggested by the SVM theory. In addition, we target the improvement of classification interpretability with a new model, named ST-ProtoPNet, which exploits our support prototypes and the trivial prototypes to provide complementary interpretability information. Experimental results on CUB-200-2011, Stanford Cars, and Stanford Dogs datasets demonstrate that the proposed method achieves state-of-the-art classification accuracy and produces more visually meaningful and diverse prototypes.
翻訳日:2023-01-11 16:54:13 公開日:2023-01-08
# FGAHOI:人間と物体の相互作用検出のための微細アンカー

FGAHOI: Fine-Grained Anchors for Human-Object Interaction Detection ( http://arxiv.org/abs/2301.04019v1 )

ライセンス: Link先を確認
Shuailei Ma, Yuefeng Wang, Shanze Wang and Ying Wei(参考訳) ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)は、コンピュータビジョンにおいて重要な問題である。 HOIインスタンスは、個々のオブジェクトインスタンスよりも空間、スケール、タスクが広いため、ノイズの多いバックグラウンドに対してより影響を受けやすい。 HOI検出におけるノイズの多い背景の乱れを軽減するためには、HOIインスタンスの検出を誘導するために利用するきめ細かいアンカーを生成するための入力画像情報を検討する必要がある。 しかし、次のような理由から困難である。 i) 複雑な背景情報を用いて画像から重要な特徴を抽出する方法はまだ未解決の問題だ。 ii) 抽出した機能とクエリの埋め込みを意味的に調整する方法も難しい問題である。 本稿では、この問題を解決するために、新しいエンドツーエンドトランスフォーマーベースフレームワーク(fgahoi)を提案する。 FGAHOIは、マルチスケールサンプリング(MSS)、階層的空間認識マージ(HSAM)、タスク認識マージ機構(TAM)の3つの専用コンポーネントから構成される。 MSSは、様々なスケールのHOIインスタンスのために、ノイズの多い背景から人、物、相互作用領域の特徴を抽出する。 HSAMとTAMは、抽出した特徴とクエリの埋め込みを階層的空間およびタスクの観点で意味的に整合し、マージする。 一方、FGAHOIによる過度に複雑な作業による訓練圧を低減するため、新たな訓練戦略であるStage-wise Training Strategyが設計された。 さらに、hoiインスタンス検出の難易度を測定する2つの方法を提案し、hoiインスタンス検出の2つの課題(人間-オブジェクトペアの分散領域と人間-オブジェクトペアの遠距離ビジュアルモデリング)に対する新しいデータセットを提案する。

Human-Object Interaction (HOI), as an important problem in computer vision, requires locating the human-object pair and identifying the interactive relationships between them. The HOI instance has a greater span in spatial, scale, and task than the individual object instance, making its detection more susceptible to noisy backgrounds. To alleviate the disturbance of noisy backgrounds on HOI detection, it is necessary to consider the input image information to generate fine-grained anchors which are then leveraged to guide the detection of HOI instances. However, it is challenging for the following reasons. i) how to extract pivotal features from the images with complex background information is still an open question. ii) how to semantically align the extracted features and query embeddings is also a difficult issue. In this paper, a novel end-to-end transformer-based framework (FGAHOI) is proposed to alleviate the above problems. FGAHOI comprises three dedicated components namely, multi-scale sampling (MSS), hierarchical spatial-aware merging (HSAM) and task-aware merging mechanism (TAM). MSS extracts features of humans, objects and interaction areas from noisy backgrounds for HOI instances of various scales. HSAM and TAM semantically align and merge the extracted features and query embeddings in the hierarchical spatial and task perspectives in turn. In the meanwhile, a novel training strategy Stage-wise Training Strategy is designed to reduce the training pressure caused by overly complex tasks done by FGAHOI. In addition, we propose two ways to measure the difficulty of HOI detection and a novel dataset, i.e., HOI-SDC for the two challenges (Uneven Distributed Area in Human-Object Pairs and Long Distance Visual Modeling of Human-Object Pairs) of HOI instances detection.
翻訳日:2023-01-11 16:53:41 公開日:2023-01-08
# 未知, 未知, あるいは部分的に知られる補助変数によるコミュニティ検出

Community Detection with Known, Unknown, or Partially Known Auxiliary Latent Variables ( http://arxiv.org/abs/2301.04088v1 )

ライセンス: Link先を確認
Mohammad Esmaeili and Aria Nosratinia(参考訳) 経験的観察は、実際には、コミュニティメンバーシップが観察グラフのエッジ間の依存性を完全に説明していないことを示唆している。 グラフエッジの残差は,グラフエッジの統計に影響を及ぼすが,関心のコミュニティに関する情報を一切持たない補助ノード潜伏変数によって,第1順にモデル化される。 次に,補助潜伏変数を持つ確率ブロックモデルと検閲ブロックモデルに従うグラフのコミュニティ検出について検討する。 これらの補助潜伏変数が未知である場合の正確な回復条件を分析し、未知のニュアンスパラメータやモデルミスマッチを示す。 また,これらの二次的潜在変数が完全あるいは部分的に明らかにされた場合の正確な回復を解析した。 最後に,セカンダリラベルが未知あるいは未知の場合に,所望のラベルを復元する半定値プログラミングアルゴリズムを提案する。 半定義のプログラムを各最大ラピッド完全リカバリしきい値に下げることで、正確なリカバリが可能であることを示す。

Empirical observations suggest that in practice, community membership does not completely explain the dependency between the edges of an observation graph. The residual dependence of the graph edges are modeled in this paper, to first order, by auxiliary node latent variables that affect the statistics of the graph edges but carry no information about the communities of interest. We then study community detection in graphs obeying the stochastic block model and censored block model with auxiliary latent variables. We analyze the conditions for exact recovery when these auxiliary latent variables are unknown, representing unknown nuisance parameters or model mismatch. We also analyze exact recovery when these secondary latent variables have been either fully or partially revealed. Finally, we propose a semidefinite programming algorithm for recovering the desired labels when the secondary labels are either known or unknown. We show that exact recovery is possible by semidefinite programming down to the respective maximum likelihood exact recovery threshold.
翻訳日:2023-01-11 16:45:52 公開日:2023-01-08
# 強非線形性による量子同期効果

Quantum synchronization effects induced by strong nonlinearities ( http://arxiv.org/abs/2301.02948v1 )

ライセンス: Link先を確認
Yuan Shen, Wai-Keong Mok, Changsuk Noh, Ai Qun Liu, Leong-Chuan Kwek, Weijun Fan, and Andy Chia(参考訳) 量子同期のパラダイムはスチュアート・ランダウ振動子(stuart-landau oscillator)の量子アナログであり、弱非線形性(すなわち消滅するほど小さい)の限界におけるファンデルポル振動子に対応する。 この欠点を克服するために、ファンデルポル振動子を数値的に引くことなく有限個の非線形性に近似する代替モデルを提案する。 これにより、共鳴による振幅死の持続性など、古典的類似性のない深量子強非線形状態における興味深い現象を明らかにすることができる。 また,反応結合量子振動子における非線形性誘起位置相関についても報告する。 このような結合振動は、最大に達する前に非線形性の増加とますます相関する。 この行動は古典的に欠落している。 また, 単一発振器と結合発振器の両方において, 強い非線形性が同期帯域を拡大可能であることを示す。 この効果は振幅死において2つの発振器間の相互同期を誘導するために利用できる。

A paradigm for quantum synchronization is the quantum analog of the Stuart--Landau oscillator, which corresponds to a van der Pol oscillator in the limit of weak (i.e. vanishingly small) nonlinearity. Due to this limitation, the quantum Stuart--Landau oscillator fails to capture interesting nonlinearity-induced phenomena such as relaxation oscillations. To overcome this deficiency we propose an alternative model which approximates the van der Pol oscillator to finitely large nonlinearities while remaining numerically tractable. This allows us to uncover interesting phenomena in the deep-quantum strongly-nonlinear regime with no classical analog, such as the persistence of amplitude death on resonance. We also report nonlinearity-induced position correlations in reactively coupled quantum oscillators. Such coupled oscillations become more and more correlated with increasing nonlinearity before reaching some maximum. Again, this behavior is absent classically. We also show how strong nonlinearity can enlarge the synchronization bandwidth in both single and coupled oscillators. This effect can be harnessed to induce mutual synchronization between two oscillators initially in amplitude death.
翻訳日:2023-01-10 19:06:29 公開日:2023-01-08
# 多体リンドブレディアンダイナミクスの場の理論

Field Theory of Many-Body Lindbladian Dynamics ( http://arxiv.org/abs/2301.02953v1 )

ライセンス: Link先を確認
Foster Thompson and Alex Kamenev(参考訳) 我々は多体駆動散逸量子系のリンドブラジアン発展を研究するためのケルディッシュ汎関数積分法をレビューし、さらに開発する。 ボソニック系およびフェルミオン系リンドブラジアンの力学に関する体系的および教育的記述が提示されている。 特に、リアプノフ方程式によって決定される定常分布関数の特異性に重点を置いている。 この枠組みは、バンド理論、障害、衝突のない集団モード、平均場理論の文脈におけるリンドブラッド力学の例を研究するために応用される。

We review and further develop the Keldysh functional integral technique for the study of Lindbladian evolution of many-body driven-dissipative quantum systems. A systematic and pedagogical account of the dynamics of generic bosonic and fermionic Lindbladians is presented. Our particular emphasis is on unique properties of the stationary distribution function, determined by the Lyapunov equation. This framework is applied to study examples of Lindbladian dynamics in the context of band theory, disorder, collisionless collective modes, and mean-field theory.
翻訳日:2023-01-10 19:06:11 公開日:2023-01-08
# 最小組込み組合せ最適化問題に対する3世代D波量子アニールの比較

Comparing Three Generations of D-Wave Quantum Annealers for Minor Embedded Combinatorial Optimization Problems ( http://arxiv.org/abs/2301.03009v1 )

ライセンス: Link先を確認
Elijah Pelofske(参考訳) 量子アニーリング(quantum annealing)は、量子力学的揺らぎを用いてイジング問題の最適解を探すことを目的とした、新しいタイプのアナログ計算である。 D-Wave QPU上に実装されたTransverse Isingモデルにおける量子アニールは、クラウドコンピューティングリソースとして利用可能である。 本稿では,np-hard combinatorial optimization problem (np-hard combinatorial optimization problem) に対する4つの異なるデバイスからなるd-wave量子アニーラの3世代にわたる簡潔なベンチマークについて報告する。 アイシング(QUBO)は、これらの問題の定式化は順序の減少のために補助変数を必要とせず、その全体構造と重みは非常に複雑ではないため、現在のD-Wave量子アニールのサンプリング能力を理解するための単純なテストケースである。 比較的均一なチェーン長を持つ522ドルの全てのマイナーな埋め込みは、キメラ、ペガサス、ゼファーのデバイストポロジーを直接比較するために使用される。 各装置と問題タイプに対して合理的な性能のレベルを決定するために、アニーリング時間とマイナー埋め込みチェーン強度のグリッド検索を行う。 報告されている実験指標は、非破壊鎖サンプルの近似比と連鎖破壊比である。 測定された基底状態分布のエントロピーを用いて、複数の最大傾きを含む場合において、量子異方体が最適な最大傾きをいかに正確にサンプリングするかを定量化する。 zephyrハードウェア接続を持つ最新の量子アニーリングハードウェアは、近似比とチェーンブレーク周波数に関して、全体として最高の性能を発揮した。

Quantum annealing is a novel type of analog computation that aims to use quantum mechanical fluctuations to search for optimal solutions of Ising problems. Quantum annealing in the Transverse Ising model, implemented on D-Wave QPUs, are available as cloud computing resources. In this article we report concise benchmarks across three generations of D-Wave quantum annealers, consisting of four different devices, for the NP-Hard combinatorial optimization problems unweighted maximum clique and unweighted maximum cut on random graphs. The Ising, or equivalently QUBO, formulation of these problems do not require auxiliary variables for order reduction, and their overall structure and weights are not highly complex, which makes these problems simple test cases to understand the sampling capability of current D-Wave quantum annealers. All-to-all minor embeddings of size $52$, with relatively uniform chain lengths, are used for a direct comparison across the Chimera, Pegasus, and Zephyr device topologies. A grid search over annealing times and the minor embedding chain strengths is performed in order to determine the level of reasonable performance for each device and problem type. Experiment metrics that are reported are approximation ratios for non-broken chain samples and chain break proportions. How fairly the quantum annealers sample optimal maximum cliques, for instances which contain multiple maximum cliques, is also quantified using entropy of the measured ground state distributions. The newest generation of quantum annealing hardware, which has a Zephyr hardware connectivity, performed the best overall with respect to approximation ratios and chain break frequencies.
翻訳日:2023-01-10 19:06:02 公開日:2023-01-08
# flexshard: 業界規模のシーケンスレコメンデーションモデルのためのフレキシブルシャーディング

FlexShard: Flexible Sharding for Industry-Scale Sequence Recommendation Models ( http://arxiv.org/abs/2301.02959v1 )

ライセンス: Link先を確認
Geet Sethi, Pallab Bhattacharya, Dhruv Choudhary, Carole-Jean Wu, Christos Kozyrakis(参考訳) シーケンスベースのディープラーニングレコメンデーションモデル(DLRM)は、ユーザの長期的関心を捉える上で、従来の総和ベースのモデルよりも大幅に改善されたDLRMの新興クラスである。 しかし、これらの改善はシステムコストが大きくなり、シーケンスベースのDLRMは、1回のイテレーションで各アクセラレーターによって動的に生成および通信するためにかなりの量のデータを必要とする。 この急激なボトルネックに対処するために、すべての行が同じではないという洞察を利用して、ローあたりの粒度で動作する新しいタイトシーケンス埋め込みテーブルシャーディングアルゴリズムFlexShardを提案する。 確率分布に基づく埋め込み行の正確な複製と、実世界のクラスタネットワークトポロジの不均一で歪んだパフォーマンスに適応した新しいシャーディング戦略の導入により、FlexShardは、従来の最先端と比較して追加メモリを使用しずに、通信要求を大幅に削減できる。 プロダクションスケールのシーケンスDLRMで評価すると、FlexShardは全体の全通信トラフィックを85%以上削減することができ、結果として、従来の最先端のアプローチに比べて、エンドツーエンドの通信遅延がほぼ6倍改善された。

Sequence-based deep learning recommendation models (DLRMs) are an emerging class of DLRMs showing great improvements over their prior sum-pooling based counterparts at capturing users' long term interests. These improvements come at immense system cost however, with sequence-based DLRMs requiring substantial amounts of data to be dynamically materialized and communicated by each accelerator during a single iteration. To address this rapidly growing bottleneck, we present FlexShard, a new tiered sequence embedding table sharding algorithm which operates at a per-row granularity by exploiting the insight that not every row is equal. Through precise replication of embedding rows based on their underlying probability distribution, along with the introduction of a new sharding strategy adapted to the heterogeneous, skewed performance of real-world cluster network topologies, FlexShard is able to significantly reduce communication demand while using no additional memory compared to the prior state-of-the-art. When evaluated on production-scale sequence DLRMs, FlexShard was able to reduce overall global all-to-all communication traffic by over 85%, resulting in end-to-end training communication latency improvements of almost 6x over the prior state-of-the-art approach.
翻訳日:2023-01-10 18:58:04 公開日:2023-01-08
# anycostfl: 異種エッジデバイス上での効率的なオンデマンドフェデレーション学習

AnycostFL: Efficient On-Demand Federated Learning over Heterogeneous Edge Devices ( http://arxiv.org/abs/2301.03062v1 )

ライセンス: Link先を確認
Peichun Li, Guoliang Cheng, Xumin Huang, Jiawen Kang, Rong Yu, Yuan Wu, Miao Pan(参考訳) 本研究では,リソース制約の異なる異種エッジデバイス上でのオンデマンドフェデレーション学習(fl)の課題について検討する。 我々はAny CostFLというコスト調整可能なFLフレームワークを提案し、多様なエッジデバイスが広範囲の効率制約の下でローカル更新を効率的に実行できるようにする。 この目的のために,弾性計算コストで局所モデル学習を支援するために縮小モデルと,動的通信オーバーヘッドでパラメータ伝達を可能にする勾配圧縮を設計する。 拡張されたパラメータアグリゲーションは、モデル性能を改善するために要素的に行われる。 さらに、Any CostFLに着目し、パーソナライズされたレイテンシとエネルギー制約によるグローバルトレーニング損失を最小限に抑える最適化設計を提案する。 収束分析の理論的洞察を明らかにすることにより、各デバイスがローカルに利用可能なリソースと一致するように、個別のトレーニング戦略を導出する。 実験結果から、最先端の効率的なFLアルゴリズムと比較して、我々の学習フレームワークは訓練待ち時間とエネルギー消費の最大1.9倍を削減し、合理的なグローバルテスト精度を実現することが示唆された。 さらに,本手法が収束したグローバル精度を大幅に向上させることを示した。

In this work, we investigate the challenging problem of on-demand federated learning (FL) over heterogeneous edge devices with diverse resource constraints. We propose a cost-adjustable FL framework, named AnycostFL, that enables diverse edge devices to efficiently perform local updates under a wide range of efficiency constraints. To this end, we design the model shrinking to support local model training with elastic computation cost, and the gradient compression to allow parameter transmission with dynamic communication overhead. An enhanced parameter aggregation is conducted in an element-wise manner to improve the model performance. Focusing on AnycostFL, we further propose an optimization design to minimize the global training loss with personalized latency and energy constraints. By revealing the theoretical insights of the convergence analysis, personalized training strategies are deduced for different devices to match their locally available resources. Experiment results indicate that, when compared to the state-of-the-art efficient FL algorithms, our learning framework can reduce up to 1.9 times of the training latency and energy consumption for realizing a reasonable global testing accuracy. Moreover, the results also demonstrate that, our approach significantly improves the converged global accuracy.
翻訳日:2023-01-10 18:57:41 公開日:2023-01-08
# 計算圧縮画像の大規模グローバル低ランク最適化

Large-scale Global Low-rank Optimization for Computational Compressed Imaging ( http://arxiv.org/abs/2301.03047v1 )

ライセンス: Link先を確認
Daoyu Li, Hanwen Xu, Miao Cao, Xin Yuan, David J. Brady, and Liheng Bian(参考訳) 計算再構成はコンピュータビジョンと計算写真において重要な役割を果たす。 従来の最適化とディープラーニング技術のほとんどは、再構築のためのローカルな情報を探索する。 近年,非局所低位 (nlr) 再構成が精度向上と一般化に成功している。 しかし、計算コストはnlrがグローバルな構造的類似性を求めることを妨げており、精度と効率のトレードオフに閉じ込められ、高次元の大規模タスクを妨げている。 この課題に対処するために,グローバルな低ランク(GLR)最適化手法を報告し,グローバルな自己相似性を備えた大規模再構築を実現する。 深層学習における自己注意機構に触発されたGLRは、従来の均一選択ではなく特徴検出によって、典型的な画像パッチを抽出する。 これにより、構造的特徴を使ってキーパッチを直接生成し、負担の多い計算冗長性を回避する。 さらに、ニューラルネットワークによる畳み込みによって画像全体のパッチマッチングを実行し、従来のシーケンシャルなブロックワイドマッチングではなく、グローバルな類似性ヒートマップを並列に生成する。 したがって、GLRはパッチグループ化効率を1桁以上改善する。 GLRの時間, 周波数, スペクトル次元に対する効果を実験的に実証し, 圧縮時間像, 磁気共鳴画像, マルチスペクトルフィルタアレイの復調の異なる計算画像特性について検討した。 本研究は,深層学習戦略と反復最適化の融合の優越性を示し,様々な大規模再構築タスクにおける精度と効率のトレードオフの持続的ジレンマを破るものである。

Computational reconstruction plays a vital role in computer vision and computational photography. Most of the conventional optimization and deep learning techniques explore local information for reconstruction. Recently, nonlocal low-rank (NLR) reconstruction has achieved remarkable success in improving accuracy and generalization. However, the computational cost has inhibited NLR from seeking global structural similarity, which consequentially keeps it trapped in the tradeoff between accuracy and efficiency and prevents it from high-dimensional large-scale tasks. To address this challenge, we report here the global low-rank (GLR) optimization technique, realizing highly-efficient large-scale reconstruction with global self-similarity. Inspired by the self-attention mechanism in deep learning, GLR extracts exemplar image patches by feature detection instead of conventional uniform selection. This directly produces key patches using structural features to avoid burdensome computational redundancy. Further, it performs patch matching across the entire image via neural-based convolution, which produces the global similarity heat map in parallel, rather than conventional sequential block-wise matching. As such, GLR improves patch grouping efficiency by more than one order of magnitude. We experimentally demonstrate GLR's effectiveness on temporal, frequency, and spectral dimensions, including different computational imaging modalities of compressive temporal imaging, magnetic resonance imaging, and multispectral filter array demosaicing. This work presents the superiority of inherent fusion of deep learning strategies and iterative optimization, and breaks the persistent dilemma of the tradeoff between accuracy and efficiency for various large-scale reconstruction tasks.
翻訳日:2023-01-10 18:49:07 公開日:2023-01-08
# 携帯型フリーハンド3次元超音波画像システムによる頸動脈硬化の診断

Automatic Diagnosis of Carotid Atherosclerosis Using a Portable Freehand 3D Ultrasound Imaging System ( http://arxiv.org/abs/2301.03081v1 )

ライセンス: Link先を確認
Jiawen Li, Yunqian Huang, Sheng Song, Hongbo Chen, Junni Shi, Duo Xu, Haibin Zhang, Man Chen, Rui Zheng(参考訳) 目的: 本研究の目的は, 携帯型3次元超音波画像システムを用いた頸動脈硬化症の深層学習に基づく検出・診断手法の開発である。 方法: 携帯型3DUS画像システムを用いて, 合計127個の頸動脈データセットを得た。 まず, u-netセグメンテーションネットワークを用いて2次元横行フレーム上の頸動脈を抽出し, 頸動脈容積の再構成のために高速ドット投影(fdp)法を用いた新しい3次元再構成アルゴリズムを提案した。 さらに、畳み込みニューラルネットワークを用いて、健康な症例と病気の症例を質的に分類した。 経時的再投射法と狭窄度測定法を含む3次元体積解析を行い,定量的に測定した。 結果: 頸動脈硬化症の診断において, 感度は0.714, 特異度0.851, 精度0.803であった。 自動測定した狭窄度(r=0.762)は経験者測定と良好な相関を示した。 結論: 頸動脈硬化症の自動診断には, 3D US 画像を用いた技術が有効である。 意義: 提案手法は携帯型3DフリーハンドUSシステムのために特別に設計され, 頸動脈硬化検査をより便利に行い, 臨床経験への依存度を低減できる。

Objective: The objective of this study is to develop a deep-learning based detection and diagnosis technique for carotid atherosclerosis using a portable freehand 3D ultrasound (US) imaging system. Methods: A total of 127 3D carotid artery datasets were acquired using a portable 3D US imaging system. A U-Net segmentation network was firstly applied to extract the carotid artery on 2D transverse frame, then a novel 3D reconstruction algorithm using fast dot projection (FDP) method with position regularization was proposed to reconstruct the carotid artery volume. Furthermore, a convolutional neural network was used to classify the healthy case and diseased case qualitatively. 3D volume analysis including longitudinal reprojection algorithm and stenosis grade measurement algorithm was developed to obtain the clinical metrics quantitatively. Results: The proposed system achieved sensitivity of 0.714, specificity of 0.851 and accuracy of 0.803 respectively in diagnosis of carotid atherosclerosis. The automatically measured stenosis grade illustrated good correlation (r=0.762) with the experienced expert measurement. Conclusion: the developed technique based on 3D US imaging can be applied to the automatic diagnosis of carotid atherosclerosis. Significance: The proposed deep-learning based technique was specially designed for a portable 3D freehand US system, which can provide carotid atherosclerosis examination more conveniently and decrease the dependence on clinician's experience.
翻訳日:2023-01-10 18:48:42 公開日:2023-01-08
# 量子計算による多数決の加速

Accelerating Majority Voting by Quantum Computation ( http://arxiv.org/abs/2301.02995v1 )

ライセンス: Link先を確認
Ao Liu, Lirong Xia, Nengkun Yu(参考訳) 本稿では,多数決のための量子アルゴリズムを提案する。 量子多数決の時間的複雑性は、実験によって支持される古典的アルゴリズムよりも二乗的に小さいことが証明される。

In this paper, we propose a quantum algorithm for majority voting. We prove that the time complexity of quantum majority voting could be quadratically smaller than its classical algorithms, which is supported by our experimental studies.
翻訳日:2023-01-10 18:38:43 公開日:2023-01-08
# 拡張ウィグナーの友人思考実験における文脈的客観的アプローチ

A contextually objective approach to the extended Wigner's friend thought experiment ( http://arxiv.org/abs/2301.03016v1 )

ライセンス: Link先を確認
Maxime Federico and Philippe Grangier(参考訳) 本稿では、Frauchiger と Renner が [1] で提案した拡張 Wigner の友人思考実験について論じる。 教科書量子力学や文脈・システム・モダリティ(csm)のオントロジ的アプローチを含む様々な議論を用いて、エージェントがシステムと見なされるものとそうでないものについて合意しなければならないと認めると矛盾は生じないことを示す。 このような文脈的に客観的な量子力学のアプローチでは、明らかな矛盾は自動的に取り除かれる。 また、エージェント間のこの相互一致が量子力学の標準的な定式化においてすでに暗黙的である理由と、それを取り除くことが矛盾につながる理由についても論じる。

We present a discussion of the extended Wigner's friend thought experiment proposed by Frauchiger and Renner in [1]. We show by using various arguments, including textbook quantum mechanics and the ontological approach of Contexts, Systems, Modalities (CSM), that no contradiction arises if one admits that agents must agree on what is considered as a system and what is not. In such a contextually objective approach of quantum mechanics, the apparent contradiction is automatically removed. We also discuss why this mutual agreement between agents is already implicit in the standard formulations of quantum mechanics, and why removing it leads to inconsistencies.
翻訳日:2023-01-10 18:38:40 公開日:2023-01-08
# 熱力学的相関不等式

Thermodynamic correlation inequality ( http://arxiv.org/abs/2301.03060v1 )

ライセンス: Link先を確認
Yoshihiko Hasegawa(参考訳) 不確実性関係は、物理システムが実行できる操作に基本的な限界を与える。 この書簡では、古典的および量子的マルコフ過程において、システムの現在の状態と将来の状態の関係を測定する相関関数の境界を与える不確実性関係を求める。 得られた境界は熱力学的相関不等式と呼ばれ、相関関数の変化は力学活性からなる上界を持ち、マルコフ過程の活性の尺度である。 さらに, 線形応答関数と得られた関係を応用して, 摂動の効果は動的活動を構成する境界を持つことを示した。

Uncertainty relations place fundamental limits on the operations that physical systems can perform. In this Letter, we obtain uncertainty relations that give bounds for the correlation function, which measures the relationship between a system's current state and its future state, in both classical and quantum Markov processes. The obtained bounds, referred to as thermodynamic correlation inequality, state that the change in the correlation function has an upper bound comprising the dynamical activity, a measure of the activity of a Markov process. Moreover, applying the obtained relation to the linear response function, we show that the effect of perturbation has a bound comprising the dynamical activity.
翻訳日:2023-01-10 18:38:27 公開日:2023-01-08
# 非IIDデータを用いたバッチ正規化損傷フェデレーション学習

Why Batch Normalization Damage Federated Learning on Non-IID Data? ( http://arxiv.org/abs/2301.02982v1 )

ライセンス: Link先を確認
Yanmeng Wang, Qingjiang Shi, Tsung-Hui Chang(参考訳) 有望な分散学習パラダイムとして、フェデレーション学習(FL)では、エッジクライアントのプライバシを保護するとともに、ネットワークエッジでディープニューラルネットワーク(DNN)モデルをトレーニングする。 大規模DNNモデルを訓練するために,バッチ正規化(BN)は訓練を加速し,一般化能力を向上させるためのシンプルかつ効果的な手段であると考えられてきた。 しかし、最近の研究では、BNは非i.d.データの存在下でFLの性能を著しく損なうことが示されている。 この問題に対処するためにいくつかのFLアルゴリズムが提案されているが、中央集権方式と比較しても性能は著しく低下している。 さらに、どちらもBNがFL収束をいかに損なうかを理論的に説明していない。 本稿では,非二項データの下で,BNの局所的パラメータと大域的パラメータのミスマッチが局所的モデルと大域的モデルとの勾配ずれを引き起こし,結果としてFL収束が遅くなり,偏りが生じることを示す最初の収束解析を提案する。 そこで我々は,複数のデータ分布において,反復層ワイドパラメータアグリゲーションを用いて,堅牢なFL性能を実現することができるFedTANというBNに適合した新しいFLアルゴリズムを開発した。 BNベースDNNモデルのトレーニングにおいて,既存のベースラインよりもFedTANの方が優れていることを示す。

As a promising distributed learning paradigm, federated learning (FL) involves training deep neural network (DNN) models at the network edge while protecting the privacy of the edge clients. To train a large-scale DNN model, batch normalization (BN) has been regarded as a simple and effective means to accelerate the training and improve the generalization capability. However, recent findings indicate that BN can significantly impair the performance of FL in the presence of non-i.i.d. data. While several FL algorithms have been proposed to address this issue, their performance still falls significantly when compared to the centralized scheme. Furthermore, none of them have provided a theoretical explanation of how the BN damages the FL convergence. In this paper, we present the first convergence analysis to show that under the non-i.i.d. data, the mismatch between the local and global statistical parameters in BN causes the gradient deviation between the local and global models, which, as a result, slows down and biases the FL convergence. In view of this, we develop a new FL algorithm that is tailored to BN, called FedTAN, which is capable of achieving robust FL performance under a variety of data distributions via iterative layer-wise parameter aggregation. Comprehensive experimental results demonstrate the superiority of the proposed FedTAN over existing baselines for training BN-based DNN models.
翻訳日:2023-01-10 18:32:01 公開日:2023-01-08
# 逆散乱に対する深い噴射前処理

Deep Injective Prior for Inverse Scattering ( http://arxiv.org/abs/2301.03092v1 )

ライセンス: Link先を確認
AmirEhsan Khorashadizadeh, Sepehr Eskandari, Vahid Khorashadi-Zadeh, Ivan Dokmani\'c(参考訳) 電磁的逆散乱では、散乱波から物体の誘電率を再構成する。 ディープラーニングは従来の反復解法に代わる有望な代替手段であるが、主に、散在するフィールドやバックプロジェクションから誘電率パターンを回帰するために、教師付きフレームワークとして使用されている。 このような方法はテスト時に高速であり、特定のデータ分布に対して良好な結果が得られるが、実際には散在するフィールドの分布流に敏感である。 散乱したフィールドの分布が周波数の変化、送信機と受信機の数、その他の現実世界の要素によって変化した場合、エンドツーエンドのニューラルネットワークは、新しいデータセットで再トレーニングまたは微調整されなければならない。 本稿では,深部生成モデルに基づく逆散乱のための新しいデータ駆動フレームワークを提案する。 対象の誘電率を正規化器として作用し,データから学習する低次元多様体によってモデル化する。 散乱フィールドとターゲット信号の両方を必要とする教師付きメソッドとは異なり、トレーニングにはターゲットの誘電率のみが必要であり、実験的な設定で使用できる。 提案手法は,U-Netのような最先端の深層学習手法に匹敵する再現性を持ちながら,特に強力な散乱器において従来の反復手法よりも優れていることを示す。

In electromagnetic inverse scattering, we aim to reconstruct object permittivity from scattered waves. Deep learning is a promising alternative to traditional iterative solvers, but it has been used mostly in a supervised framework to regress the permittivity patterns from scattered fields or back-projections. While such methods are fast at test-time and achieve good results for specific data distributions, they are sensitive to the distribution drift of the scattered fields, common in practice. If the distribution of the scattered fields changes due to changes in frequency, the number of transmitters and receivers, or any other real-world factor, an end-to-end neural network must be re-trained or fine-tuned on a new dataset. In this paper, we propose a new data-driven framework for inverse scattering based on deep generative models. We model the target permittivities by a low-dimensional manifold which acts as a regularizer and learned from data. Unlike supervised methods which require both scattered fields and target signals, we only need the target permittivities for training; it can then be used with any experimental setup. We show that the proposed framework significantly outperforms the traditional iterative methods especially for strong scatterers while having comparable reconstruction quality to state-of-the-art deep learning methods like U-Net.
翻訳日:2023-01-10 18:31:37 公開日:2023-01-08
# 顔の認識システム:DNNを特定の人だけに強制的に操作する

Facial Misrecognition Systems: Simple Weight Manipulations Force DNNs to Err Only on Specific Persons ( http://arxiv.org/abs/2301.03118v1 )

ライセンス: Link先を確認
Irad Zehavi, Adi Shamir(参考訳) 本稿では,ディープシャムニューラルネットの一般的なアーキテクチャに基づく顔認識モデルにおいて,重みのわずかな部分(追加のトレーニングや最適化を使わずに)を数学的に変更することにより,新たなタイプのバックドアを任意の顔認識モデルに組み込む方法について述べる。 これらのバックドアは、攻撃者が事前に選択した特定の人物のみにerrを強制する。 例えば、このようなバックドアシステムでは、特定の人物の2つの画像を取得して、それらが異なる人物を表すと判断するか(匿名性攻撃)、特定の人物の1対の2つの画像で同一人物を表すと判断するか(混乱性攻撃)を示し、他人の判断の正確性にほとんど影響を与えない。 同様に、複数のバックドアは、ほとんど干渉することなくお互いの存在を知らない複数の攻撃者が独立して設置できることを示す。 我々は、標準LFWデータセットのSOTA精度を99.35 %$で達成するFaceNetベースの顔認識システムに対する攻撃を実験的に検証した。 10人の有名人を個別に匿名化しようとしたが、ネットワークは2つの画像が9,6.97 %$から9,8.29 %$に同じ人物であることを認識できなかった。 例えば、非常に異なる見た目のmorgan freemanとscarlett johanssonを混同しようとしたとき、それらの画像は同じ人物であると宣言された。 それぞれのバックドアに対して、各バックドアの性能に最小限の影響を及ぼした複数のバックドアを順次設置した(例えば、同じモデルで10人のセレブ全員を匿名化することで、有名人の成功率が0.91\%以下になった)。 全ての実験において、他人のネットワークの良さは0.48 %$以下に低下した(ほとんどの場合、99.30 %$を超えていた)。

In this paper we describe how to plant novel types of backdoors in any facial recognition model based on the popular architecture of deep Siamese neural networks, by mathematically changing a small fraction of its weights (i.e., without using any additional training or optimization). These backdoors force the system to err only on specific persons which are preselected by the attacker. For example, we show how such a backdoored system can take any two images of a particular person and decide that they represent different persons (an anonymity attack), or take any two images of a particular pair of persons and decide that they represent the same person (a confusion attack), with almost no effect on the correctness of its decisions for other persons. Uniquely, we show that multiple backdoors can be independently installed by multiple attackers who may not be aware of each other's existence with almost no interference. We have experimentally verified the attacks on a FaceNet-based facial recognition system, which achieves SOTA accuracy on the standard LFW dataset of $99.35\%$. When we tried to individually anonymize ten celebrities, the network failed to recognize two of their images as being the same person in $96.97\%$ to $98.29\%$ of the time. When we tried to confuse between the extremely different looking Morgan Freeman and Scarlett Johansson, for example, their images were declared to be the same person in $91.51 \%$ of the time. For each type of backdoor, we sequentially installed multiple backdoors with minimal effect on the performance of each one (for example, anonymizing all ten celebrities on the same model reduced the success rate for each celebrity by no more than $0.91\%$). In all of our experiments, the benign accuracy of the network on other persons was degraded by no more than $0.48\%$ (and in most cases, it remained above $99.30\%$).
翻訳日:2023-01-10 18:31:16 公開日:2023-01-08
# 部品を組み立てたコンポーネントベースモデリングとシミュレーションのための検証フレームワーク

A Verification Framework for Component-Based Modeling and Simulation Putting the pieces together ( http://arxiv.org/abs/2301.03088v1 )

ライセンス: Link先を確認
Imran Mahmood(参考訳) 本論文では,構成可能性検証において重要な問題に対処する包括的検証フレームワークを提案し,反応性,リアルタイム性,確率性など,さまざまなシステムモデルの構成可能性を検証する検証プロセスを提案する。 これらのシステムはすべて、異なる構成されたコンポーネントが相互に同時に相互作用する性質において同時であるという仮定により、構造的および行動的分析のための広範な技術要件はますます困難になってきている。 提案する検証フレームワークは,コンポーザビリティを異なるレベルで検証するための方法,テクニック,ツールサポートを提供する。 これらのレベルは一貫性のあるモデル構成可能性の基礎として定義される。 それぞれのレベルが詳細に議論され、そのレベルで構成可能性を検証するアプローチが提示される。 特に、全体的なコンポーザビリティの正確性においてその重要性と、プロセスで生じる困難さによって、動的・意味論的コンポーザビリティのレベルに焦点をあてます。 このレベルで構成可能性を検証するために、3つの異なるアプローチの適用について検討する。 (i)ペトリネットに基づく代数解析 (ii)カラーペトリネット(cpn)に基づく状態空間解析と (iii)逐次プロセスに基づくモデルチェックの伝達。 これら3つのアプローチは、動的意味的コンポーザビリティを異なる方法で検証する問題に対処するが、それらはすべて同じ目的、すなわち、要求仕様に関する合成モデルの正しさを確認するために共有する。

In this thesis a comprehensive verification framework is proposed to contend with some important issues in composability verification and a verification process is suggested to verify composability of different kinds of systems models, such as reactive, real-time and probabilistic systems. With an assumption that all these systems are concurrent in nature in which different composed components interact with each other simultaneously, the requirements for the extensive techniques for the structural and behavioral analysis becomes increasingly challenging. The proposed verification framework provides methods, techniques and tool support for verifying composability at its different levels. These levels are defined as foundations of consistent model composability. Each level is discussed in detail and an approach is presented to verify composability at that level. In particular we focus on the Dynamic-Semantic Composability level due to its significance in the overall composability correctness and also due to the level of difficulty it poses in the process. In order to verify composability at this level we investigate the application of three different approaches namely (i) Petri Nets based Algebraic Analysis (ii) Colored Petri Nets (CPN) based State-space Analysis and (iii) Communicating Sequential Processes based Model Checking. All three approaches attack the problem of verifying dynamic-semantic composability in different ways however they all share the same aim i.e., to confirm the correctness of a composed model with respect to its requirement specifications.
翻訳日:2023-01-10 18:10:51 公開日:2023-01-08
# Foldsformer: 空間的注意による連続的なマルチステップ衣服操作の学習

Foldsformer: Learning Sequential Multi-Step Cloth Manipulation With Space-Time Attention ( http://arxiv.org/abs/2301.03003v1 )

ライセンス: Link先を確認
Kai Mo, Chongkun Xia, Xueqian Wang, Yuhong Deng, Xuehai Gao, Bin Liang(参考訳) 連続的なマルチステップの布操作はロボット操作において難しい問題であり、ロボットは布の状態を認識し、望ましい状態につながる一連の連鎖した動作を計画する必要がある。 以前のほとんどの作品は目標条件の方法でこの問題に対処しており、特定のタスクと布の構成ごとに目標の観察を行う必要があるが、実用的で効率的ではない。 そこで本稿では, foldformer という,新しいマルチステップ布操作計画フレームワークを提案する。 Foldformerは、一般的なデモンストレーションだけで同様のタスクを完了し、時空の注意機構を使用して、このデモの背後にある命令情報をキャプチャすることができる。 本稿では,4つの逐次的マルチステップ操作タスクにおける foldsformer の評価実験を行い,foldsformer がシミュレーションの最先端手法を著しく上回っていることを示す。 Foldformerは、布の構成(サイズやポーズなど)が一般的なデモンストレーションの構成と異なる場合でも、マルチステップの布操作タスクを完了させることができる。 さらに,本手法は,追加のトレーニングやドメインランダム化を行うことなく,シミュレーションから実世界へ移行することができる。 長方形の衣服のトレーニングにも拘わらず,我々のアプローチは着ていない布の形状(tシャツとショートパンツ)に一般化できることも示します。 ビデオとソースコードはhttps://sites.google.com/view/foldsformer.com/で入手できる。

Sequential multi-step cloth manipulation is a challenging problem in robotic manipulation, requiring a robot to perceive the cloth state and plan a sequence of chained actions leading to the desired state. Most previous works address this problem in a goal-conditioned way, and goal observation must be given for each specific task and cloth configuration, which is not practical and efficient. Thus, we present a novel multi-step cloth manipulation planning framework named Foldformer. Foldformer can complete similar tasks with only a general demonstration and utilize a space-time attention mechanism to capture the instruction information behind this demonstration. We experimentally evaluate Foldsformer on four representative sequential multi-step manipulation tasks and show that Foldsformer significantly outperforms state-of-the-art approaches in simulation. Foldformer can complete multi-step cloth manipulation tasks even when configurations of the cloth (e.g., size and pose) vary from configurations in the general demonstrations. Furthermore, our approach can be transferred from simulation to the real world without additional training or domain randomization. Despite training on rectangular clothes, we also show that our approach can generalize to unseen cloth shapes (T-shirts and shorts). Videos and source code are available at: https://sites.google.com/view/foldsformer.
翻訳日:2023-01-10 18:05:53 公開日:2023-01-08
# コントラスト学習による人間とコンピュータの意見詐欺の軽減

Mitigating Human and Computer Opinion Fraud via Contrastive Learning ( http://arxiv.org/abs/2301.03025v1 )

ライセンス: Link先を確認
Yuliya Tukmacheva, Ivan Oseledets, Evgeny Frolov(参考訳) 本稿では,協調フィルタリングレコメンデータシステムにおける偽テキストレビュー検出への新たなアプローチを提案する。 既存のアルゴリズムは、言語モデルによって生成された偽レビューを検出し、不正直なユーザーによって書かれたテキストを無視する。 本稿では,ユーザ人口特性とテキストレビューを,偽造に対する追加的証拠として活用する,対照的な学習ベースアーキテクチャを提案する。 これにより、2つの異なるタイプの偽レビューのスパム行為を説明でき、偏りのあるレビューに対してレコメンデーションシステムがより堅牢になります。

We introduce the novel approach towards fake text reviews detection in collaborative filtering recommender systems. The existing algorithms concentrate on detecting the fake reviews, generated by language models and ignore the texts, written by dishonest users, mostly for monetary gains. We propose the contrastive learning-based architecture, which utilizes the user demographic characteristics, along with the text reviews, as the additional evidence against fakes. This way, we are able to account for two different types of fake reviews spamming and make the recommendation system more robust to biased reviews.
翻訳日:2023-01-10 18:05:32 公開日:2023-01-08
# Digital Twin: 人間はどこに収まるのか?

Digital Twin: Where do humans fit in? ( http://arxiv.org/abs/2301.03040v1 )

ライセンス: Link先を確認
Ashwin Agrawal, Robert Thiel, Pooja Jain, Vishal Singh, Martin Fischer(参考訳) デジタルツイン(DT)技術は包括的で成熟していないため、DTによって自動化された関数や、人間によってまだ実行されている関数が実際に実装されている。 このDTの断片的な実装は、作業システムにおけるDTにどんな役割(あるいは機能)を割り当てるか、そしてそれが人間にどのように影響するかを、実践者に任せることが多い。 作業システムで人間とDTが果たす役割に関する知識の欠如は、多大なコスト、リソースの配置ミス、DTからの非現実的な期待、戦略的ミスアライメントをもたらす可能性がある。 この課題を軽減するために,本論文では,人間がDTを扱う場合,DTが果たす役割の種類や,それらの役割がどの程度自動化されるのか,という,研究上の疑問に答える。 具体的には,2次元概念枠組みであるlevel of digital twin (lodt)を提案する。 このフレームワークは, (1) オブザーバ, (2) アナリスト, (3) 意思決定者, (4) アクション実行者(Action Executor) と,これら各ロールの自動化範囲を,完全に手動から完全に自動化された5つのレベルに分けて,DTが果たす役割のタイプを統合する。 特定のdtは様々なレベルで様々な役割を演じることができる。 このフレームワークは、実践者がDTデプロイメントを体系的に計画し、目標と成果を明確に伝達し、戦略的ビジョンを示すのに役立つ。 ケーススタディでは、フレームワークの有用性が示されている。

Digital Twin (DT) technology is far from being comprehensive and mature, resulting in their piecemeal implementation in practice where some functions are automated by DTs, and others are still performed by humans. This piecemeal implementation of DTs often leaves practitioners wondering what roles (or functions) to allocate to DTs in a work system, and how might it impact humans. A lack of knowledge about the roles that humans and DTs play in a work system can result in significant costs, misallocation of resources, unrealistic expectations from DTs, and strategic misalignments. To alleviate this challenge, this paper answers the research question: When humans work with DTs, what types of roles can a DT play, and to what extent can those roles be automated? Specifically, we propose a two-dimensional conceptual framework, Levels of Digital Twin (LoDT). The framework is an integration of the types of roles a DT can play, broadly categorized under (1) Observer, (2) Analyst, (3) Decision Maker, and (4) Action Executor, and the extent of automation for each of these roles, divided into five different levels ranging from completely manual to fully automated. A particular DT can play any number of roles at varying levels. The framework can help practitioners systematically plan DT deployments, clearly communicate goals and deliverables, and lay out a strategic vision. A case study illustrates the usefulness of the framework.
翻訳日:2023-01-10 18:05:21 公開日:2023-01-08
# 共役方程式に対するランダム化ブロック座標アルゴリズムとその応用

Accelerated Randomized Block-Coordinate Algorithms for Co-coercive Equations and Applications ( http://arxiv.org/abs/2301.03113v1 )

ライセンス: Link先を確認
Quoc Tran-Dinh(参考訳) 本稿では,共役方程式の解を近似する高速化型ランダム化ブロック座標アルゴリズムを開発した。 このような方程式は最適化と関連する分野において中心的な役割を担い、凸最適化、凸凸ミニマックス、変分不等式問題など、多くの数学モデルを特別な場合として扱う。 我々のアルゴリズムは, [48] におけるhalpernの不動点反復の最近のネステロフの加速解釈に依存している。 我々は、新しいアルゴリズムが$\mathcal{O}(1/k^2)$-convergence rate on $\mathbb{E}[\Vert Gx^k\Vert^2]$を最終定式で達成し、$G$は根底にある共役作用素、$\mathbb{E}[\cdot]$は期待値、$k$は反復カウンタであることを示す。 この値は文献の標準フォワード法や勾配法において$\mathcal{O}(1/k)$レートよりもはるかに高速である。 また、$\mathbb{E}[\Vert Gx^k\Vert^2]$と$\mathbb{E}[\Vert x^{k+1}x^{k}\Vert^2]$の両方に対して$o(1/k^2)$レートを証明します。 次に,2つの演算子の和を含む単調なインクルージョンを解くために,前向き分割とダグラス・ラフフォード分割スキームの2つの高速化ランダム化ブロック座標変種を導出する。 副産物として、これらの変種は非加速型よりも収束速度が速い。 最後に,本手法を有限単位単音包含法に適用し,フェデレーション学習を含む機械学習や統計学習に応用する。 その結果,高速かつ証明可能な収束率を持つ新しいフェデレーション学習型アルゴリズムが得られた。

In this paper, we develop an accelerated randomized block-coordinate algorithm to approximate a solution of a co-coercive equation. Such an equation plays a central role in optimization and related fields and covers many mathematical models as special cases, including convex optimization, convex-concave minimax, and variational inequality problems. Our algorithm relies on a recent Nesterov's accelerated interpretation of the Halpern fixed-point iteration in [48]. We establish that the new algorithm achieves $\mathcal{O}(1/k^2)$-convergence rate on $\mathbb{E}[\Vert Gx^k\Vert^2]$ through the last-iterate, where $G$ is the underlying co-coercive operator, $\mathbb{E}[\cdot]$ is the expectation, and $k$ is the iteration counter. This rate is significantly faster than $\mathcal{O}(1/k)$ rates in standard forward or gradient-based methods from the literature. We also prove $o(1/k^2)$ rates on both $\mathbb{E}[\Vert Gx^k\Vert^2]$ and $\mathbb{E}[\Vert x^{k+1} - x^{k}\Vert^2]$. Next, we apply our method to derive two accelerated randomized block coordinate variants of the forward-backward splitting and Douglas-Rachford splitting schemes, respectively for solving a monotone inclusion involving the sum of two operators. As a byproduct, these variants also have faster convergence rates than their non-accelerated counterparts. Finally, we apply our scheme to a finite-sum monotone inclusion that has various applications in machine learning and statistical learning, including federated learning. As a result, we obtain a novel federated learning-type algorithm with fast and provable convergence rates.
翻訳日:2023-01-10 18:03:50 公開日:2023-01-08
# J=1/2 - J'=1/2$原子系の共鳴蛍光における量子干渉:量子ビート、非古典性、非ガウス性

Quantum interference in the resonance fluorescence of a $J=1/2 - J'=1/2$ atomic system: Quantum beats, nonclassicality, and non-Gaussianity ( http://arxiv.org/abs/2301.03061v1 )

ライセンス: Link先を確認
H. M. Castro-Beltr\'an, O. de los Santos-S\'anchez, L. Guti\'errez, and A. D. Alcantar-Vidal(参考訳) 角運動量$J=1/2 - J'=1/2$構造を持つ系の共鳴蛍光を線形偏光単色レーザー場によって駆動する。 2つの量子干渉、反パラレル、$\pi$遷移は豊かな結果をもたらす。 この記事は2つのテーマを重ねて展開する。 一 原子が強いレーザーと大きなゼーマン分裂を受けるとき、強度及び双極子-双極子、強度-強度、および二次-強度相関の量子ビートを観測すること。 ビートの平均と変調周波数は、それぞれ2対のサイドバンドを持つモロースペクトルに関連する2つの密接な一般化されたラビ周波数の平均と差によって与えられる。 (II) 位相依存蛍光の非古典的および非ガウス的性質は、弱いから中程度の励起とビート状態における。 ビーツ系における蛍光は、主に3階の双極子ゆらぎによる非古典的であり、それらは強く非ガウス的であることを示している。 弱から中程度の駆動レーザーと小さなデチューニングとゼーマン分割のために、非古典性は第2(スケーズ)と第3次双極子ノイズの相互作用である。

We study the resonance fluorescence of a system with angular momentum $J=1/2 - J'=1/2$ level structure driven by a single, linearly polarized, monochromatic laser field. Quantum interference among the two, antiparallel, $\pi$ transitions leads to rich results. We develop the article around two broad overlapping themes: (i) the observation of quantum beats in the intensity and the dipole-dipole, intensity-intensity, and quadrature-intensity correlations, when the atom is subject to a strong laser and large Zeeman splittings. The mean and modulation frequencies of the beats are given by the average and difference, respectively, among two close generalized Rabi frequencies related to a Mollow-like spectrum with two pairs of sidebands. (ii) The nonclassical and non-Gaussian properties of phase-dependent fluorescence for the cases of weak to moderate excitation and in the regime of beats. The fluorescence in the beats regime is nonclassical, mainly from the third-order dipole fluctuations, which reveal them to be also strongly non-Gaussian. For weak to moderate driving laser and small detunings and Zeeman splittings the nonclassicality is an interplay of second- (squeezing) and third-order dipole noise.
翻訳日:2023-01-10 17:55:27 公開日:2023-01-08
# 等尺写像法によるr-一様部分空間の生成について

On generating r-uniform subspaces with the isometric mapping method ( http://arxiv.org/abs/2301.03120v1 )

ライセンス: Link先を確認
K. V. Antipin(参考訳) ヘテロジニアス系を含むr-ユニフォーム状態からなる部分空間を構成するための構成的アプローチを提案する。 このアプローチでは、古いものから新しいオブジェクトを構築することができる。純粋な量子誤り訂正符号の等長法と、絡み合った多元状態と部分空間を組み合わせる。 提案手法は、新しい純粋量子誤り訂正符号を、古いものの組み合わせから構築するためにも利用できる。 このアプローチは、2-, 3-, 4-, 5-一様部分空間の構成を含む様々な例で示される。 結果は直交配列を用いて得られた類似の構成と比較される。

We propose a compositional approach to construct subspaces consisting entirely of r-uniform states, including the ones in heterogeneous systems. The approach allows one to construct new objects from old ones: it combines encoding isometries of pure quantum error correcting codes with entangled multipartite states and subspaces. The presented methods can be also used to construct new pure quantum error correcting codes from certain combinations of old ones. The approach is illustrated with various examples including constructions of 2-, 3-, 4-, 5-uniform subspaces. The results are then compared with analogous constructions obtained with the use of orthogonal arrays.
翻訳日:2023-01-10 17:55:08 公開日:2023-01-08
# 雑音線形問題に対する量子状態のサンプルサイズ還元

Sample-size-reduction of quantum states for the noisy linear problem ( http://arxiv.org/abs/2301.02988v1 )

ライセンス: Link先を確認
Kabgyun Jeong(参考訳) 量子超越性(Quantum supremacy)は、現実的な量子コンピュータが、古典的コンピュータが妥当な時間内では不可能な計算を行うことができることを示している。 この分野の誕生以来、重要な研究分野となり、本質的には量子アルゴリズムの効率的な構築に基づいている。 純粋量子状態上の量子サンプリングにより、量子機械学習理論におけるノイズの多い線形(あるいはエラーを伴う学習)問題を高速に解く方法が存在することが示されている。 本稿では,量子状態のランダム化,すなわち$\varepsilon$-random技術を用いて,雑音の多い線形構造におけるサンプルサイズの削減手法を提案する。 特に,量子乱数アクセスメモリ(QRAM)の量子サンプルサイズを,入力データの次元の観点から線形次数に縮小することができることを示す。 そこで,雑音線形問題に対して,より短い実行時間を実現する。

Quantum supremacy poses that a realistic quantum computer can perform a calculation that classical computers cannot in any reasonable amount of time. It has become a topic of significant research interest since the birth of the field, and it is intrinsically based on the efficient construction of quantum algorithms. It has been shown that there exists an expeditious way to solve the noisy linear (or learning with errors) problems in quantum machine learning theory via a well-posed quantum sampling over pure quantum states. In this paper, we propose an advanced method to reduce the sample size in the noisy linear structure, through a technique of randomizing quantum states, namely, $\varepsilon$-random technique. Particularly, we show that it is possible to reduce a quantum sample size in a quantum random access memory (QRAM) to the linearithmic order, in terms of the dimensions of the input-data. Thus, we achieve a shorter run-time for the noisy linear problem.
翻訳日:2023-01-10 17:44:11 公開日:2023-01-08
# 量子計算に基づく測定の物理的実現

Physical Realization of Measurement Based Quantum Computation ( http://arxiv.org/abs/2301.03022v1 )

ライセンス: Link先を確認
Muhammad Kashif, Saif Al-Kuwari(参考訳) 量子力学の性質を損なうため、量子コンピュータは多くの応用において古典的コンピュータを上回り、社会の様々な側面に影響を与える可能性がある。 このようなコンピュータを構築するための様々なアプローチが検討されている。 そのような潜在的なアプローチの1つは、2001年にRaussendorf と Briegel によって導入された測定ベースの量子計算 (MBQC) である。 MBQCでは、多数の量子ビットがクラスタ状態と呼ばれる非常に絡み合ったクラスタで準備される。 必要な量子計算は、一連の測定によって実行される。 クラスタ状態は連続変数(CV)と離散変数(DV)アプローチを使って物理的に実現されている。 CVベースのアプローチはさらに、周波数領域多重化(FDM)、時間領域多重化(TDM)、空間領域多重化(SDM)、ハイブリッドに分類される。 これらのアプローチを詳細に議論し、比較する。 また、DVにおけるクラスター状態の生成についても論じ、光子と超伝導量子ビットを用いた最近の研究結果を報告する。

Harnessing quantum mechanics properties, quantum computers have the potential to outperform classical computers in many applications and are envisioned to affect various aspects of our society. Different approaches are being explored for building such computers. One of such potential approaches is Measurement based quantum computation (MBQC), introduced by Raussendorf and Briegel in 2001. In MBQC a large number of qubits are prepared in a highly entangled clusters, called cluster states. The required quantum computation is then performed by a sequence of measurements. Cluster states are being physically realized using continuous variables (CV) and discrete variables (DV) approaches. CV-based approaches can be further categorized as Frequency domain multiplexing (FDM), Time domain multiplexing (TDM), Spatial domain multiplexing (SDM) and hybrid. We discuss and compare these approaches in detail. We also discuss cluster states generation in DV and report some recent results where photons and superconducting qubits are used.
翻訳日:2023-01-10 17:43:54 公開日:2023-01-08
# 1D CNNを用いたテキストと分類によるマイクロブログ管理エモティコンからの感情認識

Emotion Recognition from Microblog Managing Emoticon with Text and Classifying using 1D CNN ( http://arxiv.org/abs/2301.02971v1 )

ライセンス: Link先を確認
Md. Ahsan Habib, M. A. H. Akhand and Md. Abdus Samad Kamal(参考訳) オンラインのブロードキャストメディアであるmicroblogは、人々が自分の考えや意見を共有するために広く使われているフォーラムである。 近年,マイクロブログからの感情認識 (er) は,様々な分野の研究課題となっている。 機械学習の領域では、マイクロブログからの感情の自動認識は、特に多様なコンテンツを考慮したより良い結果のために難しい課題である。 emoticonは、コンテンツの意味を強化するため、マイクロブログのテキストで非常に一般的になる。 本研究では,マイクロブログデータからテキストとエモティコンの両方を考慮した感情認識手法を提案する。 エモティコンは、ユーザの感情のユニークな表現と見なされ、適切な感情的な言葉によって変化する。 マイクロブログデータに現れるエモティコンの継承を保存し、1次元畳み込みニューラルネットワーク(CNN)を用いて感情分類を行う。 実験の結果,提案手法は,Twitterデータ上でテストしながら既存の方法よりも優れていた。

Microblog, an online-based broadcast medium, is a widely used forum for people to share their thoughts and opinions. Recently, Emotion Recognition (ER) from microblogs is an inspiring research topic in diverse areas. In the machine learning domain, automatic emotion recognition from microblogs is a challenging task, especially, for better outcomes considering diverse content. Emoticon becomes very common in the text of microblogs as it reinforces the meaning of content. This study proposes an emotion recognition scheme considering both the texts and emoticons from microblog data. Emoticons are considered unique expressions of the users' emotions and can be changed by the proper emotional words. The succession of emoticons appearing in the microblog data is preserved and a 1D Convolutional Neural Network (CNN) is employed for emotion classification. The experimental result shows that the proposed emotion recognition scheme outperforms the other existing methods while tested on Twitter data.
翻訳日:2023-01-10 17:37:07 公開日:2023-01-08
# 拡散, 騒音, ゆがみを考慮した時系列予測

Generative Time Series Forecasting with Diffusion, Denoise, and Disentanglement ( http://arxiv.org/abs/2301.03028v1 )

ライセンス: Link先を確認
Yan Li, Xinjiang Lu, Yaqing Wang, Dejing Dou(参考訳) 時系列予測は多くのアプリケーションにおいて非常に重要な課題である。 しかし、実世界の時系列データは短時間で記録されることが一般的であり、それによって深いモデルと限られた時間とノイズの多い時系列の間に大きなギャップが生じる。 本研究では,生成モデルを用いた時系列予測問題に対処し,拡散・分節・絡み合いを備えた双方向変分オートエンコーダ(bvae),すなわちd3vaeを提案する。 具体的には, 連成拡散確率モデルを提案し, 不確かさを増大させることなく時系列データを強化し, bvaeを用いたより扱いやすい推定プロセスを実現する。 生成した系列が真の目標に向かって移動することを保証するため、時系列予測のための拡散過程にマルチスケールの分節スコアマッチングを適用し統合することを提案する。 さらに, 予測の解釈可能性や安定性を高めるため, 多変量方法で潜伏変数を処理し, 相関関係の最小化を図った。 合成および実世界のデータに対する大規模な実験は、D3VAEが競合アルゴリズムよりも優れたマージンを持つことを示している。 実装はhttps://github.com/paddlepaddle/paddlespatial/tree/main/research/d3vaeで利用可能です。

Time series forecasting has been a widely explored task of great importance in many applications. However, it is common that real-world time series data are recorded in a short time period, which results in a big gap between the deep model and the limited and noisy time series. In this work, we propose to address the time series forecasting problem with generative modeling and propose a bidirectional variational auto-encoder (BVAE) equipped with diffusion, denoise, and disentanglement, namely D3VAE. Specifically, a coupled diffusion probabilistic model is proposed to augment the time series data without increasing the aleatoric uncertainty and implement a more tractable inference process with BVAE. To ensure the generated series move toward the true target, we further propose to adapt and integrate the multiscale denoising score matching into the diffusion process for time series forecasting. In addition, to enhance the interpretability and stability of the prediction, we treat the latent variable in a multivariate manner and disentangle them on top of minimizing total correlation. Extensive experiments on synthetic and real-world data show that D3VAE outperforms competitive algorithms with remarkable margins. Our implementation is available at https://github.com/PaddlePaddle/PaddleSpatial/tree/main/research/D3VAE.
翻訳日:2023-01-10 17:36:54 公開日:2023-01-08
# XDQN: ミスミキシングによる本質的に解釈可能なDQN

XDQN: Inherently Interpretable DQN through Mimicking ( http://arxiv.org/abs/2301.03043v1 )

ライセンス: Link先を確認
Andreas Kontogiannis and George Vouros(参考訳) 深層強化学習(DRL)手法は課題にうまく適用されているが、実際の運用環境での応用は、説明を提供する方法の限られた能力によって挑戦されている。 DRLにおける説明可能性のパラダイムの1つは、解釈可能なボックス設計パラダイムであり、解釈可能なモデルはDRL法の内部構成モデルを代用し、DRL法を「本質的に」解釈できる。 本稿では、このパラダイムを考察し、模倣によって訓練された解釈可能なポリシーモデルを用いたDQNの説明可能なバリエーションであるXDQNを提案する。 XDQNは、エージェントが独立した学習者である複雑な実世界のマルチエージェント問題に挑戦する。 具体的には、XDQNは航空交通管理における需要-容量バランスの問題に関連する3つのMARLシナリオで評価される。 XDQNはDQNと同様のパフォーマンスを実現し、グローバルモデルの解釈とローカル決定の解釈を提供する能力を示す。

Although deep reinforcement learning (DRL) methods have been successfully applied in challenging tasks, their application in real-world operational settings is challenged by methods' limited ability to provide explanations. Among the paradigms for explainability in DRL is the interpretable box design paradigm, where interpretable models substitute inner constituent models of the DRL method, thus making the DRL method "inherently" interpretable. In this paper we explore this paradigm and we propose XDQN, an explainable variation of DQN, which uses an interpretable policy model trained through mimicking. XDQN is challenged in a complex, real-world operational multi-agent problem, where agents are independent learners solving congestion problems. Specifically, XDQN is evaluated in three MARL scenarios, pertaining to the demand-capacity balancing problem of air traffic management. XDQN achieves performance similar to that of DQN, while its abilities to provide global models' interpretations and interpretations of local decisions are demonstrated.
翻訳日:2023-01-10 17:36:33 公開日:2023-01-08
# AutoAC: 異種グラフニューラルネットワークの属性自動補完に向けて

AutoAC: Towards Automated Attribute Completion for Heterogeneous Graph Neural Network ( http://arxiv.org/abs/2301.03049v1 )

ライセンス: Link先を確認
Guanghui Zhu, Zhennan Zhu, Wenjie Wang, Zhuoer Xu, Chunfeng Yuan, Yihua Huang(参考訳) 多くの現実世界のデータは、複数の種類のノードとエッジを含む異種グラフとしてモデル化できる。 一方、優れた性能のため、異種グラフニューラルネットワーク(GNN)はますます注目を集めている。 しかし、既存の研究は主に新しいgnnモデルの設計に焦点を当てているが、モデルのパフォーマンスに大きな影響を与える別の重要な問題、すなわちいくつかのノードタイプの欠落した属性を無視している。 手作りの属性補完には、膨大な専門家の経験とドメイン知識が必要です。 また、ノード間の意味的特性の違いを考慮すると、属性補完はきめ細かな粒度でなければならない。 さらに、下流グラフ学習タスクの性能向上のためには、属性補完と異種GNNの訓練を2つの別々のプロセスと見なすのではなく、協調的に最適化する必要がある。 上記の課題に対処するため、異種GNNにおける自動補完操作探索のためのAutoACと呼ばれる異種属性補完フレームワークを提案する。 まず,位相依存および位相非依存完備演算を含む表現的完備演算探索空間を提案する。 そこで本研究では, 2段階共同最適化問題として, 完了操作探索を定式化する微分可能補完アルゴリズムを提案する。 探索効率を向上させるために,離散制約と補助的教師なしグラフノードクラスタリングという2つの最適化手法を活用した。 実世界のデータセットの大規模な実験結果から、AutoACはSOTAの手作りヘテロジニアスGNNと既存の属性補完法より優れていることが判明した。

Many real-world data can be modeled as heterogeneous graphs that contain multiple types of nodes and edges. Meanwhile, due to excellent performance, heterogeneous graph neural networks (GNNs) have received more and more attention. However, the existing work mainly focuses on the design of novel GNN models, while ignoring another important issue that also has a large impact on the model performance, namely the missing attributes of some node types. The handcrafted attribute completion requires huge expert experience and domain knowledge. Also, considering the differences in semantic characteristics between nodes, the attribute completion should be fine-grained, i.e., the attribute completion operation should be node-specific. Moreover, to improve the performance of the downstream graph learning task, attribute completion and the training of the heterogeneous GNN should be jointly optimized rather than viewed as two separate processes. To address the above challenges, we propose a differentiable attribute completion framework called AutoAC for automated completion operation search in heterogeneous GNNs. We first propose an expressive completion operation search space, including topology-dependent and topology-independent completion operations. Then, we propose a continuous relaxation schema and further propose a differentiable completion algorithm where the completion operation search is formulated as a bi-level joint optimization problem. To improve the search efficiency, we leverage two optimization techniques: discrete constraints and auxiliary unsupervised graph node clustering. Extensive experimental results on real-world datasets reveal that AutoAC outperforms the SOTA handcrafted heterogeneous GNNs and the existing attribute completion method
翻訳日:2023-01-10 17:36:16 公開日:2023-01-08
# 深層ニューラルネットワークと機械学習分類器を用いた2型糖尿病の予後と治療予測

Prognosis and Treatment Prediction of Type-2 Diabetes Using Deep Neural Network and Machine Learning Classifiers ( http://arxiv.org/abs/2301.03093v1 )

ライセンス: Link先を確認
Md. Kowsher, Mahbuba Yesmin Turaba, Tanvir Sajed, M M Mahabubur Rahman(参考訳) Type 2 Diabetes is a fast-growing, chronic metabolic disorder due to imbalanced insulin activity.The motion of this research is a comparative study of seven machine learning classifiers and an artificial neural network method to prognosticate the detection and treatment of diabetes with high accuracy,in order to identify and treat diabetes patients at an early age.Our training and test dataset is an accumulation of 9483 diabetes patients information.The training dataset is large enough to negate overfitting and provide for highly accurate test performance.We use performance measures such as accuracy and precision to find out the best algorithm deep ANN which outperforms with 95.14% accuracy among all other tested machine learning classifiers.We hope our high-performing model can be used by hospitals to predict diabetes and drive research into more accurate prediction models.

Type 2 Diabetes is a fast-growing, chronic metabolic disorder due to imbalanced insulin activity.The motion of this research is a comparative study of seven machine learning classifiers and an artificial neural network method to prognosticate the detection and treatment of diabetes with high accuracy,in order to identify and treat diabetes patients at an early age.Our training and test dataset is an accumulation of 9483 diabetes patients information.The training dataset is large enough to negate overfitting and provide for highly accurate test performance.We use performance measures such as accuracy and precision to find out the best algorithm deep ANN which outperforms with 95.14% accuracy among all other tested machine learning classifiers.We hope our high-performing model can be used by hospitals to predict diabetes and drive research into more accurate prediction models.
翻訳日:2023-01-10 17:35:52 公開日:2023-01-08
# コロナウイルスに関するスウェーデンの新聞記事のトピックモデリング:潜在ディリクレ割当法による事例研究

Topic Modelling of Swedish Newspaper Articles about Coronavirus: a Case Study using Latent Dirichlet Allocation Method ( http://arxiv.org/abs/2301.03029v1 )

ライセンス: Link先を確認
Bernadeta Grici\=ut\.e and Lifeng Han and Alexander Koller and Goran Nenadic(参考訳) トピックモデリング(TM)は、自然言語理解(NLU)と自然言語処理(NLP)の研究部門から生まれたもので、主要なトピックの要約やトピックの変更など、大きなドキュメントやデータセットからの洞察に富んだ分析を容易にする。 この種の発見は、ビッグデータ分析の影響により、現実のアプリケーションで人気が高まっている。 本研究では,スウェーデンの新聞記事における新型コロナウイルスに関する話題の変化をモデル化するために,ソーシャル・メディア・医療分野からlda手法を適用した。 我々は,2020年1月17日から2021年3月13日までの約1年2ヶ月間の話題変化に関する6515の論文,適用方法,統計を含むコーパスを作成した。 我々は、この研究がトピックモデリングの応用の基盤となり、パンデミック時代の同様のケーススタディに刺激を与え、社会経済的影響の研究と臨床・医療分析を支援することができることを願っている。 私たちのデータはhttps://github.com/で公開されています。 pic.com/poethan/Swed_Covid_TM Keywords: Latent Dirichlet Allocation (LDA)、トピックモデリング、コロナウイルス、パンデミック、自然言語理解

Topic Modelling (TM) is from the research branches of natural language understanding (NLU) and natural language processing (NLP) that is to facilitate insightful analysis from large documents and datasets, such as a summarisation of main topics and the topic changes. This kind of discovery is getting more popular in real-life applications due to its impact on big data analytics. In this study, from the social-media and healthcare domain, we apply popular Latent Dirichlet Allocation (LDA) methods to model the topic changes in Swedish newspaper articles about Coronavirus. We describe the corpus we created including 6515 articles, methods applied, and statistics on topic changes over approximately 1 year and two months period of time from 17th January 2020 to 13th March 2021. We hope this work can be an asset for grounding applications of topic modelling and can be inspiring for similar case studies in an era with pandemics, to support socio-economic impact research as well as clinical and healthcare analytics. Our data is openly available at https://github. com/poethan/Swed_Covid_TM Keywords: Latent Dirichlet Allocation (LDA); Topic Modelling; Coronavirus; Pandemics; Natural Language Understanding
翻訳日:2023-01-10 17:29:03 公開日:2023-01-08
# MEGAnno:計算ノートにおけるNLPの探索ラベリング

MEGAnno: Exploratory Labeling for NLP in Computational Notebooks ( http://arxiv.org/abs/2301.03095v1 )

ライセンス: Link先を確認
Dan Zhang, Hannah Kim, Rafael Li Chen, Eser Kandogan, Estevam Hruschka(参考訳) 本稿では,NLP研究者や実践者を対象とした新しい探索的アノテーションフレームワークMEGAnnoを紹介する。 データラベリングのみに焦点を当てた既存のラベリングツールとは異なり、当社のフレームワークは、データ探索やモデル開発を含む、より広範な反復的なMLワークフローをサポートすることを目的としています。 MEGAnnoのAPIでは、洗練された検索と自動提案機能を通じてデータをプログラム的に探索し、プロジェクトが進化するにつれてタスクスキーマを漸進的に更新することができる。 ウィジェットと組み合わせることで、NLPプロジェクトの他の部分が存在する同じノートブック内の複数のアイテムにラベルを対話的にソート、フィルタリング、割り当てることができます。 我々は,MEGAnnoのフレキシブル,探索的,効率的,シームレスなラベル付け体験を感情分析のユースケースを通じて実証する。

We present MEGAnno, a novel exploratory annotation framework designed for NLP researchers and practitioners. Unlike existing labeling tools that focus on data labeling only, our framework aims to support a broader, iterative ML workflow including data exploration and model development. With MEGAnno's API, users can programmatically explore the data through sophisticated search and automated suggestion functions and incrementally update task schema as their project evolve. Combined with our widget, the users can interactively sort, filter, and assign labels to multiple items simultaneously in the same notebook where the rest of the NLP project resides. We demonstrate MEGAnno's flexible, exploratory, efficient, and seamless labeling experience through a sentiment analysis use case.
翻訳日:2023-01-10 17:28:41 公開日:2023-01-08
# 主系列の2つの表現の等価性

Equivalence of Two Expressions of Principal Line ( http://arxiv.org/abs/2301.03039v1 )

ライセンス: Link先を確認
Cheng-Yen Hsu, Hsin-Yi Chen and Jen-Hui Chuang(参考訳) 主線を用いた幾何学的カメラキャリブレーションは、最適化アプローチによるキャリブレーションよりも精度が高く頑健であり、2次元射影幾何学の異なる視点から主線を再導出し、キャリブレーションプロセスの代替を増大させようとする研究もある。 本報告では、主直線の2つの表現の代数的同値性(w.r.tホモグラフィと直交消滅点の2つの集合を用いたもう1つの同値性)が証明される。 さらに、無限消滅点を組み込むための第二表現の拡張は、単純な数学で行う。

Geometry-based camera calibration using principal line is more precise and robust than calibration using optimization approaches; therefore, several researches try to re-derive the principal line from different views of 2D projective geometry to increase alternatives of the calibration process. In this report, algebraical equivalence of two expressions of principal line, one derived w.r.t homography and the other using for two sets of orthogonal vanishing points, is proved. Moreover, the extension of the second expression to incorporate infinite vanishing point is carried out with simple mathematics.
翻訳日:2023-01-10 17:11:09 公開日:2023-01-08
# 持続的個人化健康モニタリングのためのシームレスマルチモーダルバイオメトリックス

Seamless Multimodal Biometrics for Continuous Personalised Wellbeing Monitoring ( http://arxiv.org/abs/2301.03045v1 )

ライセンス: Link先を確認
Jo\~ao Ribeiro Pinto(参考訳) 人間の知的な知覚は、私たち全員の生活にますます存在する。 近い将来、パターン認識は車の中でさらに強力な役割を果たすだろう。自動運転車は、周囲で起きていること(そして内部)を理解し、それに従って行動するために、自動的な方法を必要とする。 (...) 本研究は,生体計測と健康モニタリングの両方のための新しいコンピュータビジョンとパターン認識手法の研究を通じて,車内センシングの進歩に焦点を当てた。 主な焦点は心電図(ECG)バイオメトリックスであり、シームレスな運転監視の可能性で知られている。 主な努力は、個人外のシナリオにおける識別とアイデンティティ検証のパフォーマンス向上に費やされ、ノイズと可変性の増加でよく知られている。 ここでは、エンドツーエンドの深層学習ECGバイオメトリックソリューションを提案し、クロスデータベースや長期性能、説明可能性による波形関連性、インターリード変換といった重要なトピックに対処した。 シームレスな制約のないシナリオにおけるECGの自然な補体である顔バイオメトリックスも本研究で研究された。 バイオメトリックスにおけるマスキング顔認識と解釈可能性のオープンな挑戦は、より透明で信頼性が高く、重要な咬合に頑健なアルゴリズムへと進化するために取り組まれた。 健康モニタリングの話題の中で,人間集団におけるマルチモーダル感情認識と車内シナリオにおける行動・暴力認識の改善が提案されている。 最後に、エンドツーエンドモデル内でテンプレートセキュリティを学ぶ新しい方法を提案し、さらに別の暗号化プロセスを廃止し、シーケンシャルデータに合わせた自己教師付き学習アプローチを提案し、データのセキュリティと最適なパフォーマンスを確保する。 (...)

Artificially intelligent perception is increasingly present in the lives of every one of us. Vehicles are no exception, (...) In the near future, pattern recognition will have an even stronger role in vehicles, as self-driving cars will require automated ways to understand what is happening around (and within) them and act accordingly. (...) This doctoral work focused on advancing in-vehicle sensing through the research of novel computer vision and pattern recognition methodologies for both biometrics and wellbeing monitoring. The main focus has been on electrocardiogram (ECG) biometrics, a trait well-known for its potential for seamless driver monitoring. Major efforts were devoted to achieving improved performance in identification and identity verification in off-the-person scenarios, well-known for increased noise and variability. Here, end-to-end deep learning ECG biometric solutions were proposed and important topics were addressed such as cross-database and long-term performance, waveform relevance through explainability, and interlead conversion. Face biometrics, a natural complement to the ECG in seamless unconstrained scenarios, was also studied in this work. The open challenges of masked face recognition and interpretability in biometrics were tackled in an effort to evolve towards algorithms that are more transparent, trustworthy, and robust to significant occlusions. Within the topic of wellbeing monitoring, improved solutions to multimodal emotion recognition in groups of people and activity/violence recognition in in-vehicle scenarios were proposed. At last, we also proposed a novel way to learn template security within end-to-end models, dismissing additional separate encryption processes, and a self-supervised learning approach tailored to sequential data, in order to ensure data security and optimal performance. (...)
翻訳日:2023-01-10 17:10:57 公開日:2023-01-08
# STPrivacy:プライバシー保護行動認識のための時空間スペーシングと匿名化

STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for Privacy-preserving Action Recognition ( http://arxiv.org/abs/2301.03046v1 )

ライセンス: Link先を確認
Ming Li, Jun Liu, Hehe Fan, Jia-Wei Liu, Jiahe Li, Mike Zheng Shou, Jussi Keppo(参考訳) 近年,ppar(privacy-preserving action recognition)がビデオ理解問題として注目されている。 それでも、既存の作業はフレームレベルの(空間的な)プライバシー保護に焦点を当てており、ビデオ全体のプライバシー漏洩を無視し、アクションの時間的連続性を破壊する。 本稿では,空間的,時間的両面からプライバシ保護を行う新しいPPARパラダイムを提案し,STPrivacyフレームワークを提案する。 当社のSTPrivacyは初めて視覚変換器をPPARに適用し,ビデオを時空間管のシーケンスとみなし,従来の畳み込み法よりも優れた優位性を示した。 具体的には、STPrivacyはプライバシーを含むチューブレットを2つの異なる方法で適応的に扱う。 アクションに無関係なチューブレットは直接放棄され、すなわちスパシフィケーションが行われ、その後のタスクには公開されない。 対照的に、行動に深く関わっている人々は匿名化され、匿名化され、個人情報を削除する。 これら2つのトランスフォーメーションメカニズムは、当社の統一フレームワークで補完的かつ同時に最適化されています。 大規模なベンチマークがないため、最も人気のあるアクション認識データセットであるhmdb51とutf101の5つのプライバシ属性に注釈を付け、広範な実験を行います。 さらに,STPrivacyの一般化能力を検証するために,プライバシー保護型顔認識タスクを導入し,大規模ビデオ顔属性データセット,すなわちCeleb-VHQで実験を行う。 徹底的な比較と可視化分析は、既存の作品よりも大きな優位性を示している。 付録には詳細と視覚化が含まれている。

Recently privacy-preserving action recognition (PPAR) has been becoming an appealing video understanding problem. Nevertheless, existing works focus on the frame-level (spatial) privacy preservation, ignoring the privacy leakage from a whole video and destroying the temporal continuity of actions. In this paper, we present a novel PPAR paradigm, i.e., performing privacy preservation from both spatial and temporal perspectives, and propose a STPrivacy framework. For the first time, our STPrivacy applies vision Transformers to PPAR and regards a video as a sequence of spatio-temporal tubelets, showing outstanding advantages over previous convolutional methods. Specifically, our STPrivacy adaptively treats privacy-containing tubelets in two different manners. The tubelets irrelevant to actions are directly abandoned, i.e., sparsification, and not published for subsequent tasks. In contrast, those highly involved in actions are anonymized, i.e., anonymization, to remove private information. These two transformation mechanisms are complementary and simultaneously optimized in our unified framework. Because there is no large-scale benchmarks, we annotate five privacy attributes for two of the most popular action recognition datasets, i.e., HMDB51 and UCF101, and conduct extensive experiments on them. Moreover, to verify the generalization ability of our STPrivacy, we further introduce a privacy-preserving facial expression recognition task and conduct experiments on a large-scale video facial attributes dataset, i.e., Celeb-VHQ. The thorough comparisons and visualization analysis demonstrate our significant superiority over existing works. The appendix contains more details and visualizations.
翻訳日:2023-01-10 17:10:06 公開日:2023-01-08
# CameraPose:Wild 2Dアノテーションの活用によるモノクロ3D人物位置推定

CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by Leveraging In-the-wild 2D Annotations ( http://arxiv.org/abs/2301.02979v1 )

ライセンス: Link先を確認
Cheng-Yen Yang, Jiajia Luo, Lu Xia, Yuyin Sun, Nan Qiao, Ke Zhang, Zhongyu Jiang, Jenq-Neng Hwang(参考訳) 3次元ポーズ推定器の一般化を改善するため、既存のディープラーニングベースのモデルの多くは、トレーニングポーズに異なる拡張を加えることに重点を置いている。 しかし、データ拡張技術は「seen」のポーズの組み合わせに限定されており、稀な「unseen」の関節位置を持つポーズを推測することが困難である。 この問題に対処するために,CameraPoseは,2次元3次元ポーズペアだけでなく,2次元のみのアノテーションにも適用可能な,単一の画像から3次元ポーズ推定を行う弱教師付きフレームワークである。 カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに入力してトレーニングの多様性を高めることができ、3Dのポーズは2Dに再投影することで暗黙的に学習できます。 さらに,2次元ポーズ推定器によって抽出されたノイズ2次元キーポイントの品質をさらに向上させるため,信頼度誘導損失を伴う改良ネットワークモジュールを導入する。 実験結果は、 camerapose がクロススセナリオデータセットに明確な改善をもたらすことを示した。 特に、最も難しいデータセット3DPWでは、ベースライン法を3mm上回る。 また,提案する改良ネットワークモジュールと既存の3次元ポーズ推定器を組み合わせることで,クロススセナリオ評価による性能の向上が期待できる。

To improve the generalization of 3D human pose estimators, many existing deep learning based models focus on adding different augmentations to training poses. However, data augmentation techniques are limited to the "seen" pose combinations and hard to infer poses with rare "unseen" joint positions. To address this problem, we present CameraPose, a weakly-supervised framework for 3D human pose estimation from a single image, which can not only be applied on 2D-3D pose pairs but also on 2D alone annotations. By adding a camera parameter branch, any in-the-wild 2D annotations can be fed into our pipeline to boost the training diversity and the 3D poses can be implicitly learned by reprojecting back to 2D. Moreover, CameraPose introduces a refinement network module with confidence-guided loss to further improve the quality of noisy 2D keypoints extracted by 2D pose estimators. Experimental results demonstrate that the CameraPose brings in clear improvements on cross-scenario datasets. Notably, it outperforms the baseline method by 3mm on the most challenging dataset 3DPW. In addition, by combining our proposed refinement network module with existing 3D pose estimators, their performance can be improved in cross-scenario evaluation.
翻訳日:2023-01-10 16:59:58 公開日:2023-01-08
# DeepMatcher: ローカル特徴マッチングのロバストと精度向上のためのディープトランスフォーマーベースのネットワーク

DeepMatcher: A Deep Transformer-based Network for Robust and Accurate Local Feature Matching ( http://arxiv.org/abs/2301.02993v1 )

ライセンス: Link先を確認
Tao Xie, Kun Dai, Ke Wang, Ruifeng Li, Lijun Zhao(参考訳) 画像間の局所的な特徴マッチングは依然として困難な課題であり、特に、極端な視点の変化など、重要な外観変化が存在する。 本研究では,検出器フリー手法における局所的特徴マッチングを基礎とした深層トランスフォーマトネットワークであるdeepmatcherを提案する。 重要な洞察は、深い層を持つローカル機能マーカが、より直感的で、よりシンプルにマッチする機能をキャプチャできるということだ。 そこで本研究では,すべてのキーポイント間の関連性をモデル化するためにベクトルに基づく注意を活用し,効率的かつ効果的に長距離コンテキストアグリゲーションを実現する,deepmatcher専用のスリム化トランス(slimformer)を提案する。 各スリムフォーマに相対位置符号化を施し、相対距離情報を明示的に開示し、さらにキーポイントの表現を改善する。 各SlimFormerには、残余ブロックからのメッセージ交換を適応的に同化できるようにレイヤースケール戦略が採用されており、画像ペアをスキャンするたびに人間が異なるマッチングキューを取得できるという人間の振る舞いをシミュレートすることができる。 SlimFormerの適応性を高めるために、異なる受容場を持つ機能スコープのスムーズな遷移を保証するために、FTM(Feature Transition Module)を導入する。 自己およびクロスSlimFormerを複数回インターリーブすることで、DeepMatcherは粗いレベルでピクセル単位の密マッチングを簡単に確立できる。 最後に,分類問題と回帰問題の組み合わせとしてマッチング改善を認識し,信頼度とオフセットを同時に予測するファインマッチモジュールを設計し,堅牢で正確なマッチングを生成する。 実験により、DeepMatcherはいくつかのベンチマークで最先端の手法よりも優れており、DeepMatcherの優れたマッチング能力を示している。

Local feature matching between images remains a challenging task, especially in the presence of significant appearance variations, e.g., extreme viewpoint changes. In this work, we propose DeepMatcher, a deep Transformer-based network built upon our investigation of local feature matching in detector-free methods. The key insight is that local feature matcher with deep layers can capture more human-intuitive and simpler-to-match features. Based on this, we propose a Slimming Transformer (SlimFormer) dedicated for DeepMatcher, which leverages vector-based attention to model relevance among all keypoints and achieves long-range context aggregation in an efficient and effective manner. A relative position encoding is applied to each SlimFormer so as to explicitly disclose relative distance information, further improving the representation of keypoints. A layer-scale strategy is also employed in each SlimFormer to enable the network to assimilate message exchange from the residual block adaptively, thus allowing it to simulate the human behaviour that humans can acquire different matching cues each time they scan an image pair. To facilitate a better adaption of the SlimFormer, we introduce a Feature Transition Module (FTM) to ensure a smooth transition in feature scopes with different receptive fields. By interleaving the self- and cross-SlimFormer multiple times, DeepMatcher can easily establish pixel-wise dense matches at coarse level. Finally, we perceive the match refinement as a combination of classification and regression problems and design Fine Matches Module to predict confidence and offset concurrently, thereby generating robust and accurate matches. Experimentally, we show that DeepMatcher significantly outperforms the state-of-the-art methods on several benchmarks, demonstrating the superior matching capability of DeepMatcher.
翻訳日:2023-01-10 16:59:37 公開日:2023-01-08
# 変圧器を用いたRGB-Tマルチモーダル群カウント

RGB-T Multi-Modal Crowd Counting Based on Transformer ( http://arxiv.org/abs/2301.03033v1 )

ライセンス: Link先を確認
Zhengyi Liu, Wei Wu, Yacheng Tan, Guanghui Zhang(参考訳) 群衆カウントは、シーン内の人の数を見積もることを目的としています。 カラー画像に基づく現在最先端の群衆カウント手法は、見えない物体による照明条件の悪さではうまく機能しない。 赤外線カメラの普及により,カラー画像とサーマル画像に基づく群衆のカウントが研究されている。 既存の手法は、目的制約をカウントせずにマルチモーダル融合を実現する。 マルチモーダル情報の抽出性を向上させるために,カウント誘導マルチモーダルフュージョンとモーダル誘導カウントエンハンスメントを用いて,印象的な性能を実現する。 提案するカウント誘導マルチモーダル融合モジュールは,マルチスケールトークントランスフォーマを使用して,カウント情報の指導の下で2モーダル情報を対話し,トークンの観点から異なるスケールを知覚する。 提案手法では,マルチスケール変形可能なトランスデコーダ構造を採用し,一方のモダリティ特性と他方のモダリティによるカウント情報を強化した。 公開RGBT-CCデータセットによる実験により,本手法が最先端の結果を更新することが示された。 https://github.com/liuzywen/RGBTCC

Crowd counting aims to estimate the number of persons in a scene. Most state-of-the-art crowd counting methods based on color images can't work well in poor illumination conditions due to invisible objects. With the widespread use of infrared cameras, crowd counting based on color and thermal images is studied. Existing methods only achieve multi-modal fusion without count objective constraint. To better excavate multi-modal information, we use count-guided multi-modal fusion and modal-guided count enhancement to achieve the impressive performance. The proposed count-guided multi-modal fusion module utilizes a multi-scale token transformer to interact two-modal information under the guidance of count information and perceive different scales from the token perspective. The proposed modal-guided count enhancement module employs multi-scale deformable transformer decoder structure to enhance one modality feature and count information by the other modality. Experiment in public RGBT-CC dataset shows that our method refreshes the state-of-the-art results. https://github.com/liuzywen/RGBTCC
翻訳日:2023-01-10 16:59:08 公開日:2023-01-08
# hrtransnet:hrformer駆動の2モードサルエント物体検出

HRTransNet: HRFormer-Driven Two-Modality Salient Object Detection ( http://arxiv.org/abs/2301.03036v1 )

ライセンス: Link先を確認
Bin Tang, Zhengyi Liu, Yacheng Tan, and Qian He(参考訳) 高分解能変換器(HRFormer)は高分解能表現を維持し、大域的受容場を共有する。 入力と出力が同じ解像度を持つ正当性物体検出(SOD)に対して友好的である。 しかし、2モードSODでは2つの重要な問題を解く必要がある。 一つの問題は二モード融合である。 もう一つの問題はHRFormer出力の融合である。 第1の問題を解決するために、大域的最適化と注意機構を用いて予備的モダリティを一次モダリティに注入し、入力レベルでモダリティを選択し、浄化する。 2つ目の問題を解決するため、HRFormerの出力特性を最適化するために二重方向短接続融合モジュールを用いて、出力レベルでのオブジェクトの詳細な表現を強化する。 HRTransNetと呼ばれる提案モデルは,まず補足モダリティの特徴抽出のための補助ストリームを導入する。 そして、各多分解能分岐の初めに、特徴を一次モダリティに注入する。 次に、HRFormerを適用して転送伝搬を実現する。 最後に、異なる解像度の出力特徴はすべて、機能内および機能間インタラクティブトランスによって集約される。 提案モデルの適用により、RGB-D、RGB-T、光フィールドSODなどの2モードSODタスクの駆動が大幅に改善される。

The High-Resolution Transformer (HRFormer) can maintain high-resolution representation and share global receptive fields. It is friendly towards salient object detection (SOD) in which the input and output have the same resolution. However, two critical problems need to be solved for two-modality SOD. One problem is two-modality fusion. The other problem is the HRFormer output's fusion. To address the first problem, a supplementary modality is injected into the primary modality by using global optimization and an attention mechanism to select and purify the modality at the input level. To solve the second problem, a dual-direction short connection fusion module is used to optimize the output features of HRFormer, thereby enhancing the detailed representation of objects at the output level. The proposed model, named HRTransNet, first introduces an auxiliary stream for feature extraction of supplementary modality. Then, features are injected into the primary modality at the beginning of each multi-resolution branch. Next, HRFormer is applied to achieve forwarding propagation. Finally, all the output features with different resolutions are aggregated by intra-feature and inter-feature interactive transformers. Application of the proposed model results in impressive improvement for driving two-modality SOD tasks, e.g., RGB-D, RGB-T, and light field SOD.https://github.com/liuzywen/HRTransNet
翻訳日:2023-01-10 16:58:50 公開日:2023-01-08
# Mind Reasoning Manners: テキスト上の一般化ゼロショット論理推論のための型知覚の強化

Mind Reasoning Manners: Enhancing Type Perception for Generalized Zero-shot Logical Reasoning over Text ( http://arxiv.org/abs/2301.02983v1 )

ライセンス: Link先を確認
Fangzhi Xu, Jun Liu, Qika Lin, Tianzhe Zhao, Jian Zhang, Lingling Zhang(参考訳) 論理的推論タスクは、多選択質問応答の形式に基づく、テキスト上の多種多様な複雑な推論を含む。 入力としてコンテキスト、質問、オプションのセットが与えられた場合、前の方法は全データ設定で優れたパフォーマンスを達成する。 しかし、現在のベンチマークデータセットは、列車分割の推論型分布がテスト分割に近いという理想的な仮定を持っている。 これに対処するために、研究すべき課題は2つある: (1)モデルのゼロショット能力(見かけの型でトレーニングし、見当たらない型でテストする)はどのようにあるか? 2)モデルに対する推論型の知覚を高めるには? 問題1では、ZsLRという一般化ゼロショット論理推論のための新しいベンチマークを提案する。 3種類のサンプリング戦略に基づいた6つの分割を含む。 問題2では,タイプアウェアモデルTaCoを提案する。 ヒューリスティックな入力再構成とコントラスト学習の両方を利用して、グローバル表現の型知覚を改善する。 ゼロショットとフルデータ設定の両方に対する大規模な実験は、最先端の手法よりもTaCoの方が優れていることを証明している。 また,他の論理的推論データセット上でのTaCoの一般化能力の実験と検証を行った。

Logical reasoning task involves diverse types of complex reasoning over text, based on the form of multiple-choice question answering. Given the context, question and a set of options as the input, previous methods achieve superior performances on the full-data setting. However, the current benchmark dataset has the ideal assumption that the reasoning type distribution on the train split is close to the test split, which is inconsistent with many real application scenarios. To address it, there remain two problems to be studied: (1) How is the zero-shot capability of the models (train on seen types and test on unseen types)? (2) How to enhance the perception of reasoning types for the models? For problem 1, we propose a new benchmark for generalized zero-shot logical reasoning, named ZsLR. It includes six splits based on the three type sampling strategies. For problem 2, a type-aware model TaCo is proposed. It utilizes both the heuristic input reconstruction and the contrastive learning to improve the type perception in the global representation. Extensive experiments on both the zero-shot and full-data settings prove the superiority of TaCo over the state-of-the-art methods. Also, we experiment and verify the generalization capability of TaCo on other logical reasoning dataset.
翻訳日:2023-01-10 16:53:30 公開日:2023-01-08
# swrlルールを用いたsemantic rule webによるベクター病の診断と治療

Semantic rule Web-based Diagnosis and Treatment of Vector-Borne Diseases using SWRL rules ( http://arxiv.org/abs/2301.03013v1 )

ライセンス: Link先を確認
Ritesh Chandra, Sadhana Tiwari, Sonali Agarwal, Navjot Singh(参考訳) ベクター感染性疾患(英: vector-borne disease、vbds)は、感染した寄生虫、細菌、ウイルス(ダニ、蚊、トリボトミーバグ、ブラックフライ、サンショウジョウバエ)の感染によって生じるベクターの感染の一種である。 これらの疾患が適切な時間枠で適切に治療されない場合、死亡率は上昇する可能性がある。 本研究では,ベクトル性疾患の診断と治療に役立つオントロジーのセットを提案する。 VBDのオントロジーの開発には、インド健康レコードのウェブサイトから取得した電子健康記録、インド政府の医療用モバイルアプリケーションから生成されたテキストデータ、医師の所定の患者の手書きメモが入力として使用される。 このデータを光学文字認識(OCR)と前処理後のスペルチェッカーを使って正しいテキストに変換する。 患者臨床データ(PCD)オントロジーの助けを借りて、Resource Description Framework(RDF)医療データを作成するためのテキストデータからエンティティ抽出に自然言語処理(NLP)を適用する。 その後、基本形式オントロジー(BFO)、国立ベクターボルン病管理プログラム(NVBDCP)ガイドライン、RDF医療データを用いてVBDのオントロジーを開発し、セマンティックWebルール言語(SWRL)ルールを適用して診断と治療を行う。 このオントロジーは、NVBDCPがこれらの疾患を制御するための意思決定支援システム(DSS)の構築に役立つ。

Vector-borne diseases (VBDs) are a kind of infection caused through the transmission of vectors generated by the bites of infected parasites, bacteria, and viruses, such as ticks, mosquitoes, triatomine bugs, blackflies, and sandflies. If these diseases are not properly treated within a reasonable time frame, the mortality rate may rise. In this work, we propose a set of ontologies that will help in the diagnosis and treatment of vector-borne diseases. For developing VBD's ontology, electronic health records taken from the Indian Health Records website, text data generated from Indian government medical mobile applications, and doctors' prescribed handwritten notes of patients are used as input. This data is then converted into correct text using Optical Character Recognition (OCR) and a spelling checker after pre-processing. Natural Language Processing (NLP) is applied for entity extraction from text data for making Resource Description Framework (RDF) medical data with the help of the Patient Clinical Data (PCD) ontology. Afterwards, Basic Formal Ontology (BFO), National Vector Borne Disease Control Program (NVBDCP) guidelines, and RDF medical data are used to develop ontologies for VBDs, and Semantic Web Rule Language (SWRL) rules are applied for diagnosis and treatment. The developed ontology helps in the construction of decision support systems (DSS) for the NVBDCP to control these diseases.
翻訳日:2023-01-10 16:53:11 公開日:2023-01-08
# プログラム合成のための分割結合戦略

A Divide-Align-Conquer Strategy for Program Synthesis ( http://arxiv.org/abs/2301.03094v1 )

ライセンス: Link先を確認
Jonas Witt, Stef Rasing, Sebastijan Duman\v{c}i\'c, Tias Guns and Claus-Christian Carbon(参考訳) 検索ベースのプログラム合成における大きなボトルネックは、大規模プログラムの学習を難なくする指数関数的に増加する検索空間である。 構造化されたドメインでは、論理的仕様はより小さく、補完的なソリューションプログラムに分解されることが多い。 大規模プログラムの探索を複数の小さなプログラム合成問題に分割する例によって,構成セグメント化がプログラミングに応用可能であることを示す。 各例について,潜在タスクプログラム下での出力の再現精度を最大化する,より小さな単位への分解を探索する。 入力と出力における構成部品の構造的アライメントは、プログラム合成探索のガイドに使用されるペアワイズ対応をもたらす。 インプット/アウトプット構造を整合させるために、認知科学に起源を持つ人間の類推的推論の形式モデルであるStructure-Mapping Theory(SMT)を利用する。 構造的アライメントによる分解駆動型プログラム合成は,最小限の知識先でも文字列変換タスクの帰納的論理プログラミング(ilp)ベースラインよりも優れていることを示す。 既存の手法とは異なり、エージェントの予測精度は追加例に対して単調に増加し、文字列のような高度に構造化されたドメインに対する部分プログラムの数$m$で$\mathcal{O}(m)$の平均時間複雑性を達成する。 この手法を抽象推論コーパス (arc) における視覚推論の複雑な設定に拡張し, 従来 ilp メソッドは実現不可能であった。

A major bottleneck in search-based program synthesis is the exponentially growing search space which makes learning large programs intractable. Humans mitigate this problem by leveraging the compositional nature of the real world: In structured domains, a logical specification can often be decomposed into smaller, complementary solution programs. We show that compositional segmentation can be applied in the programming by examples setting to divide the search for large programs across multiple smaller program synthesis problems. For each example, we search for a decomposition into smaller units which maximizes the reconstruction accuracy in the output under a latent task program. A structural alignment of the constituent parts in the input and output leads to pairwise correspondences used to guide the program synthesis search. In order to align the input/output structures, we make use of the Structure-Mapping Theory (SMT), a formal model of human analogical reasoning which originated in the cognitive sciences. We show that decomposition-driven program synthesis with structural alignment outperforms Inductive Logic Programming (ILP) baselines on string transformation tasks even with minimal knowledge priors. Unlike existing methods, the predictive accuracy of our agent monotonically increases for additional examples and achieves an average time complexity of $\mathcal{O}(m)$ in the number $m$ of partial programs for highly structured domains such as strings. We extend this method to the complex setting of visual reasoning in the Abstraction and Reasoning Corpus (ARC) for which ILP methods were previously infeasible.
翻訳日:2023-01-10 16:52:42 公開日:2023-01-08
# 微調整GPT-2モデルを用いたドイツ語ドラマテキストの自動生成

Automatic Generation of German Drama Texts Using Fine Tuned GPT-2 Models ( http://arxiv.org/abs/2301.03119v1 )

ライセンス: Link先を確認
Mariam Bangura, Kristina Barabashova, Anna Karnysheva, Sarah Semczuk, YIfan Wang(参考訳) この研究は、ドイツのドラマテキストの自動生成に向けられている。 GPT-2モデル(アウトラインモデル)を微調整し、キーワードに基づいてシーンのアウトラインを生成する方法と、シーンのアウトラインからシーンを生成する第2モデル(生成モデル)を微調整する手法を提案する。 ニューラルネットワークの入力は、ドイツのドラマコーパス(gerdracor)とドイツのテキストアーカイブ(deutsches textarchivまたはdta)の2つのデータセットからなる。 提案手法の有効性を推定するために,本モデルとベースラインGPT-2モデルを比較した。 提案手法は自動定量的評価により良好に機能するが,逆に手作業による質的分析では生成テキストの品質が低かった。 これはデータセットやトレーニング入力の品質に起因する可能性がある。

This study is devoted to the automatic generation of German drama texts. We suggest an approach consisting of two key steps: fine-tuning a GPT-2 model (the outline model) to generate outlines of scenes based on keywords and fine-tuning a second model (the generation model) to generate scenes from the scene outline. The input for the neural model comprises two datasets: the German Drama Corpus (GerDraCor) and German Text Archive (Deutsches Textarchiv or DTA). In order to estimate the effectiveness of the proposed method, our models are compared with baseline GPT-2 models. Our models perform well according to automatic quantitative evaluation, but, conversely, manual qualitative analysis reveals a poor quality of generated texts. This may be due to the quality of the dataset or training inputs.
翻訳日:2023-01-10 16:42:47 公開日:2023-01-08
# ニューラルネットワークモデル

Neural network models ( http://arxiv.org/abs/2301.02987v1 )

ライセンス: Link先を確認
Plamen Dimitrov(参考訳) 本研究は、ニューラルネットワークに関連する数学的モデルの現在のコレクションを提示し、認知能力の選択を達成するために、拡張された構造とダイナミクスを持つ新しいファミリーを提案する。 それはまず、生物の形態と生理学に関する基礎的背景と、ニューラルネットワークの基礎と進歩を提供することから始まります。 第1部は、現在の全ての数学的モデルとその導出的性質に関する調査を継続する。 第2部では、他のモデルと比較して新しいモデル群を定式化し、解析的および数値的に展開する。 最後に、将来に対処すべき重要な追加的な側面と制限について論じる。

This work presents the current collection of mathematical models related to neural networks and proposes a new family of such with extended structure and dynamics in order to attain a selection of cognitive capabilities. It starts by providing a basic background to the morphology and physiology of the biological and the foundations and advances of the artificial neural networks. The first part then continues with a survey of all current mathematical models and some of their derived properties. In the second part, a new family of models is formulated, compared with the rest, and developed analytically and numerically. Finally, important additional aspects and any limitations to deal with in the future are discussed.
翻訳日:2023-01-10 16:40:47 公開日:2023-01-08
# 音響単語埋め込みの表現幾何学の解析

Analyzing the Representational Geometry of Acoustic Word Embeddings ( http://arxiv.org/abs/2301.03012v1 )

ライセンス: Link先を確認
Badr M. Abdullah, Dietrich Klakow(参考訳) 音響ワード埋め込み (awes) は、同じ単語の異なる音響例が埋め込み空間の近傍に投影されるようなベクトル表現である。 音声語探索やキーワードスポッティングなどの音声技術への応用に加えて、AWEモデルは認知的な動機付けのあるいくつかの研究において音声語処理のモデルとして採用され、聴覚処理タスクにおいて人間のようなパフォーマンスを示すことが示されている。 それでも、awesの表現幾何学は、文学では研究されていない未熟な話題である。 本稿では,英語音声から得られたawesの分析的考察を行い,学習目標とアーキテクチャの選択が,その表現的プロファイルをどのように形成するかについて検討する。 この目的のために,我々は,組込み空間均一性,単語識別性,表現的一貫性という3つの異なる分析法において,機械学習と神経科学の一連の分析手法を用いる。 本研究の主な知見は,モデルアーキテクチャと比較して表現プロファイル形成における学習目標の役割を浮き彫りにするものである。

Acoustic word embeddings (AWEs) are vector representations such that different acoustic exemplars of the same word are projected nearby in the embedding space. In addition to their use in speech technology applications such as spoken term discovery and keyword spotting, AWE models have been adopted as models of spoken-word processing in several cognitively motivated studies and have been shown to exhibit human-like performance in some auditory processing tasks. Nevertheless, the representational geometry of AWEs remains an under-explored topic that has not been studied in the literature. In this paper, we take a closer analytical look at AWEs learned from English speech and study how the choice of the learning objective and the architecture shapes their representational profile. To this end, we employ a set of analytic techniques from machine learning and neuroscience in three different analyses: embedding space uniformity, word discriminability, and representational consistency. Our main findings highlight the prominent role of the learning objective on shaping the representation profile compared to the model architecture.
翻訳日:2023-01-10 16:31:24 公開日:2023-01-08
# 確率的ランジュバンモンテカルロ : (弱く)対数凹後分布について

Stochastic Langevin Monte Carlo for (weakly) log-concave posterior distributions ( http://arxiv.org/abs/2301.03077v1 )

ライセンス: Link先を確認
Marelys Crespo Navas, S\'ebastien Gadat, Xavier Gendre(参考訳) 本稿では,[wt11]で導入された確率的ランジュバンモンテカルロ法(英語版)の連続時間バージョンについて検討する。 この方法は、後方分布をサンプリングする機械学習で一般的である。 研究において特に注意を払うのは、$n$(後続分布を生成する観測数)と$d$(興味のあるパラメータが生きている環境空間の次元)の計算コストである。 我々は、KL不等式(Kurdyka-\L ojasiewicz)の不等式(英語版)(KL)の助けを借りてパラメータ化される弱凸フレームワーク(英語版)において、単純凸の場合と比較してはるかに制約の少ない、消滅する曲率設定を扱えるような分析を導出する。 d \log(n)^2 )^{(1+r)^2} [\log^2(\varepsilon^{-1}) + n^2 d^{2(1+r)} \log^{4(1+r)}(n) ]$ は、パラメータ $\left(n ( d \log^2(n))^{1+r}\right)^{-1}$ のポアソニアン部分サンプリングである。

In this paper, we investigate a continuous time version of the Stochastic Langevin Monte Carlo method, introduced in [WT11], that incorporates a stochastic sampling step inside the traditional over-damped Langevin diffusion. This method is popular in machine learning for sampling posterior distribution. We will pay specific attention in our work to the computational cost in terms of $n$ (the number of observations that produces the posterior distribution), and $d$ (the dimension of the ambient space where the parameter of interest is living). We derive our analysis in the weakly convex framework, which is parameterized with the help of the Kurdyka-\L ojasiewicz (KL) inequality, that permits to handle a vanishing curvature settings, which is far less restrictive when compared to the simple strongly convex case. We establish that the final horizon of simulation to obtain an $\varepsilon$ approximation (in terms of entropy) is of the order $( d \log(n)^2 )^{(1+r)^2} [\log^2(\varepsilon^{-1}) + n^2 d^{2(1+r)} \log^{4(1+r)}(n) ]$ with a Poissonian subsampling of parameter $\left(n ( d \log^2(n))^{1+r}\right)^{-1}$, where the parameter $r$ is involved in the KL inequality and varies between $0$ (strongly convex case) and $1$ (limiting Laplace situation).
翻訳日:2023-01-10 16:25:04 公開日:2023-01-08
# MRモーションアーチファクト低減のための焼鈍スコアベース拡散モデル

Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction ( http://arxiv.org/abs/2301.03027v1 )

ライセンス: Link先を確認
Gyutaek Oh, Jeong Eun Lee, and Jong Chul Ye(参考訳) 運動アーティファクトの低下は、画像品質を低下させ、診断を困難にするため、MR画像において重要な研究トピックの1つである。 近年,モーションアーティファクト低減のための深層学習手法が数多く研究されている。 残念なことに、既存のモデルのほとんどは教師付きでトレーニングされており、ペアのモーション破壊とモーションフリーの画像を必要とするか、あるいは現実の状況での使用を制限する厳格なモーション破壊モデルに基づいている。 この問題に対処するために,MRIの動作アーチファクト低減のためのアニール式スコアベース拡散モデルを提案する。 具体的には、無動画像のみを用いてスコアベースモデルを訓練し、前方および逆拡散処理を繰り返して運動アーチファクトを除去し、低周波データ一貫性を徐々に課す。 実験の結果,本手法はシミュレーションと生体内動作の両方のアーチファクトの削減に成功し,最先端のディープラーニング手法を上回った。

Motion artifact reduction is one of the important research topics in MR imaging, as the motion artifact degrades image quality and makes diagnosis difficult. Recently, many deep learning approaches have been studied for motion artifact reduction. Unfortunately, most existing models are trained in a supervised manner, requiring paired motion-corrupted and motion-free images, or are based on a strict motion-corruption model, which limits their use for real-world situations. To address this issue, here we present an annealed score-based diffusion model for MRI motion artifact reduction. Specifically, we train a score-based model using only motion-free images, and then motion artifacts are removed by applying forward and reverse diffusion processes repeatedly to gradually impose a low-frequency data consistency. Experimental results verify that the proposed method successfully reduces both simulated and in vivo motion artifacts, outperforming the state-of-the-art deep learning methods.
翻訳日:2023-01-10 16:23:04 公開日:2023-01-08
# Deepfake CAPTCHA:フェイクコールの防止方法

Deepfake CAPTCHA: A Method for Preventing Fake Calls ( http://arxiv.org/abs/2301.03064v1 )

ライセンス: Link先を確認
Lior Yasur, Guy Frankovits, Fred M. Grabovski, Yisroel Mirsky(参考訳) ディープラーニング技術は、特定の個人の現実的なコンテンツを生成することを可能にする。 これらの‘ディープフェイク’はリアルタイムで生成可能になり、攻撃者は音声やビデオ通話で人を偽装できる。 さらに、IDを盗むのに数枚の画像や秒のオーディオしか必要としないメソッドもある。 既存の防御は、偽コンテンツを検出するために受動的解析を行う。 しかし、ディープフェイク品質の急速な進歩により、これは負けたゲームかもしれない。 本稿では,リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。 アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。 これにより、コンテンツが歪むため受動的検出が容易になる。 既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。 本研究では,リアルタイムオーディオディープフェイクに着目し,ビデオの予備結果を示す。 評価の結果,D-CAPTCHAは難易度に応じて91~100%の精度で最先端のオーディオディープフェイク検出器より優れていることがわかった。 また,現在のリアルタイムディープフェイク攻撃の脅威について,41名のボランティアによる調査を行った。 その結果、ボランティアの大多数は、本物と偽のオーディオの違いを把握できなかった。

Deep learning technology has made it possible to generate realistic content of specific individuals. These `deepfakes' can now be generated in real-time which enables attackers to impersonate people over audio and video calls. Moreover, some methods only need a few images or seconds of audio to steal an identity. Existing defenses perform passive analysis to detect fake content. However, with the rapid progress of deepfake quality, this may be a losing game. In this paper, we propose D-CAPTCHA: an active defense against real-time deepfakes. The approach is to force the adversary into the spotlight by challenging the deepfake model to generate content which exceeds its capabilities. By doing so, passive detection becomes easier since the content will be distorted. In contrast to existing CAPTCHAs, we challenge the AI's ability to create content as opposed to its ability to classify content. In this work we focus on real-time audio deepfakes and present preliminary results on video. In our evaluation we found that D-CAPTCHA outperforms state-of-the-art audio deepfake detectors with an accuracy of 91-100% depending on the challenge (compared to 71% without challenges). We also performed a study on 41 volunteers to understand how threatening current real-time deepfake attacks are. We found that the majority of the volunteers could not tell the difference between real and fake audio.
翻訳日:2023-01-10 16:22:47 公開日:2023-01-08
# スマートホームにおける非侵入的負荷監視と家電識別のための伝達学習

Transfer learning for non-intrusive load monitoring and appliance identification in a smart home ( http://arxiv.org/abs/2301.03018v1 )

ライセンス: Link先を確認
M. Hashim Shahab, Hasan Mujtaba Buttar, Ahsan Mehmood, Waqas Aman, M. Mahboob Ur Rahman, M. Wasim Nawaz, Qammer H. Abbasi(参考訳) 非侵入負荷監視 (NILM) あるいはエネルギー分散(エネルギ・デアグリゲーション)は、家庭のメインの総負荷プロファイルから個々の家電の負荷プロファイルを抽出することを目的とする逆問題である。 NILMは、家庭内の個々の家電の電力利用パターンを特定するのに役立ち、スマートホームのための新しいエネルギー保全スキームを実現するのに役立ちます。 本稿では,nilm問題と関連するいくつかの問題を解くための新しいディープラーニング手法を提案する。 1) 提案するセク2点畳み込みニューラルネットワーク(CNN)モデルに基づいて,提案したセク2点CNNモデルを構築し,(家庭)NILM問題とサイト-NILM問題(基本的には,小型のNILM)を解決する。 2) 2D-CNNモデル,すなわちAlexNet,ResNet-18,DenseNet-121を,ウェーブレットと短時間フーリエ変換(STFT)に基づく2D電気署名からなる2つのカスタムデータセットでトレーニングすることにより,家電の識別に関する関連する問題を解決する。 3) 最後に,複数の家庭で同じ家電の消費電力を比較することにより,個々の家電の健康に関する基本的な質的推論を行う。 低周波REDDデータセットは、REFITデータセットを使用したサイトNILMを除いて、提案したディープラーニングモデルのトレーニングとテストに使用される。 その結果,ホーム・NILMでは94.6\%,サイト・NILMでは81\%,アプライアンス識別では88.9\%(Resnet-based model)が得られた。

Non-intrusive load monitoring (NILM) or energy disaggregation is an inverse problem whereby the goal is to extract the load profiles of individual appliances, given an aggregate load profile of the mains of a home. NILM could help identify the power usage patterns of individual appliances in a home, and thus, could help realize novel energy conservation schemes for smart homes. In this backdrop, this work proposes a novel deep-learning approach to solve the NILM problem and a few related problems as follows. 1) We build upon the reputed seq2-point convolutional neural network (CNN) model to come up with the proposed seq2-[3]-point CNN model to solve the (home) NILM problem and site-NILM problem (basically, NILM at a smaller scale). 2) We solve the related problem of appliance identification by building upon the state-of-the-art (pre-trained) 2D-CNN models, i.e., AlexNet, ResNet-18, and DenseNet-121, which are trained upon two custom datasets that consist of Wavelets and short-time Fourier transform (STFT)-based 2D electrical signatures of the appliances. 3) Finally, we do some basic qualitative inference about an individual appliance's health by comparing the power consumption of the same appliance across multiple homes. Low-frequency REDD dataset is used to train and test the proposed deep learning models for all problems, except site-NILM where REFIT dataset has been used. As for the results, we achieve a maximum accuracy of 94.6\% for home-NILM, 81\% for site-NILM, and 88.9\% for appliance identification (with Resnet-based model).
翻訳日:2023-01-10 16:14:22 公開日:2023-01-08
# AI保守:ロバストな視点

AI Maintenance: A Robustness Perspective ( http://arxiv.org/abs/2301.03052v1 )

ライセンス: Link先を確認
Pin-Yu Chen and Payel Das(参考訳) 機械学習(ML)の手法と計算資源の進歩により、人工知能(AI)によって強化されたシステムが普及しつつある。 しかし、ディープラーニングのような現在のAI技術には欠陥はない。 モデル複雑性とデータスケールの大幅な増加は、信頼性と透明性の欠如による課題を増大させ、新たなリスクと負の影響を生み出す可能性がある。 本稿では,ロバスト性の観点からaiのメンテナンスについて考察する。 まず、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることでAIのメンテナンスを動機付けることから始めます。 次に、ロバストネスリスクを検出し軽減するAIモデル検査フレームワークを提案する。 また、自動運転車の自律性からインスピレーションを得て、AIの堅牢性自動化のレベルを定義します。 我々のAIメンテナンス提案は、持続的で信頼性の高いAIエコシステムを構築するための重要なマイルストーンである、堅牢性評価、ステータストラッキング、リスクスキャン、モデル硬化、AIライフサイクル全体の規制を促進する。

With the advancements in machine learning (ML) methods and compute resources, artificial intelligence (AI) empowered systems are becoming a prevailing technology. However, current AI technology such as deep learning is not flawless. The significantly increased model complexity and data scale incur intensified challenges when lacking trustworthiness and transparency, which could create new risks and negative impacts. In this paper, we carve out AI maintenance from the robustness perspective. We start by introducing some highlighted robustness challenges in the AI lifecycle and motivating AI maintenance by making analogies to car maintenance. We then propose an AI model inspection framework to detect and mitigate robustness risks. We also draw inspiration from vehicle autonomy to define the levels of AI robustness automation. Our proposal for AI maintenance facilitates robustness assessment, status tracking, risk scanning, model hardening, and regulation throughout the AI lifecycle, which is an essential milestone toward building sustainable and trustworthy AI ecosystems.
翻訳日:2023-01-10 16:13:46 公開日:2023-01-08
# 組合せ最適化のための教師なし学習はメタラーニングを必要とする

Unsupervised Learning for Combinatorial Optimization Needs Meta-Learning ( http://arxiv.org/abs/2301.03116v1 )

ライセンス: Link先を確認
Haoyu Wang, Pan Li(参考訳) 組合せ最適化(CO)のための教師なし学習の一般的な枠組みは、出力がCOの目的を直接最適化することで問題解決をもたらすニューラルネットワーク(NN)を訓練することである。 従来のソルバよりもいくつかの利点があるが、現在のフレームワークは、過去の問題インスタンスの分散よりも平均的なパフォーマンスを最適化している。 そこで本研究では,coに対する教師なし学習の新たな目的を提案する。学習の目的は,直接解を与えるのではなく,将来の問題インスタンスに対して適切な初期化を求めることである。 この新しい目的のために,メタラーニングに基づくトレーニングパイプラインを提案する。 我々の方法は実証的なパフォーマンスを達成する。 細調整前のモデルが与える初期解だけでも、複数のデータセットに対する評価や、問題スケールの大きな変化がある場合など、さまざまな評価設定の下で、ベースラインを著しく上回ります。 私たちが予想している理由は、メタ学習ベースのトレーニングによって、モデルを各ローカルの最適条件にゆるやかに結び付けると同時に、インスタンス間の最適化ランドスケープの変化に適応できるということです。

A general framework of unsupervised learning for combinatorial optimization (CO) is to train a neural network (NN) whose output gives a problem solution by directly optimizing the CO objective. Albeit with some advantages over traditional solvers, the current framework optimizes an averaged performance over the distribution of historical problem instances, which misaligns with the actual goal of CO that looks for a good solution to every future encountered instance. With this observation, we propose a new objective of unsupervised learning for CO where the goal of learning is to search for good initialization for future problem instances rather than give direct solutions. We propose a meta-learning-based training pipeline for this new objective. Our method achieves go empirical performance. We observe that even just the initial solution given by our model before fine-tuning can significantly outperform the baselines under various evaluation settings including evaluation across multiple datasets, and the case with big shifts in the problem scale. The reason we conjecture is that meta-learning-based training lets the model loosely tied to each local optima for a training instance while being more adaptive to the changes of optimization landscapes across instances.
翻訳日:2023-01-10 16:06:44 公開日:2023-01-08
# グラフに基づく確率比推定によるオンライン集中型非パラメトリック変化点検出

Online Centralized Non-parametric Change-point Detection via Graph-based Likelihood-ratio Estimation ( http://arxiv.org/abs/2301.03011v1 )

ライセンス: Link先を確認
Alejandro de la Concha and Argyris Kalogeratos and Nicolas Vayatis(参考訳) グラフの各ノードを、ほぼリアルタイムで同期して観測されるデータストリームを生成するようにします。 変更点 $\tau$ において、変更は、関連するノードストリームの確率分布に影響を与える$c$ のサブセットで発生する。 本稿では,ノードストリームの変動後分布と変更前分布との相関の直接推定に基づいて,$\tau$ の検出と$c$ のローカライズを行う新しいカーネルベース手法を提案する。 我々の主要な作業仮説は、グラフ上の確率比の推定の滑らかさであり、すなわち、連結ノードも同様の確率比を持つことが期待されている。 提案手法の品質は, 合成シナリオに関する広範囲な実験で実証された。

Consider each node of a graph to be generating a data stream that is synchronized and observed at near real-time. At a change-point $\tau$, a change occurs at a subset of nodes $C$, which affects the probability distribution of their associated node streams. In this paper, we propose a novel kernel-based method to both detect $\tau$ and localize $C$, based on the direct estimation of the likelihood-ratio between the post-change and the pre-change distributions of the node streams. Our main working hypothesis is the smoothness of the likelihood-ratio estimates over the graph, i.e connected nodes are expected to have similar likelihood-ratios. The quality of the proposed method is demonstrated on extensive experiments on synthetic scenarios.
翻訳日:2023-01-10 16:06:15 公開日:2023-01-08
# 自己指導型学習における類似損失とクラスタリング損失の関係の学習

Learning the Relation between Similarity Loss and Clustering Loss in Self-Supervised Learning ( http://arxiv.org/abs/2301.03041v1 )

ライセンス: Link先を確認
Jidong Ge, Yuxiang Liu, Jie Gui, Lanting Fang, Ming Lin, James Tin-Yau Kwok, LiGuo Huang, Bin Luo(参考訳) 自己教師付き学習は、ネットワークが大量のデータから識別的特徴を学習することを可能にする。 ほとんどの最先端手法は、コントラスト学習に基づく1つの画像の2つの増補間の類似性を最大化する。 2つの追加の一貫性を利用することで、手動アノテーションの負担を解放することができる。 対照的な学習は、インスタンスレベルの情報を利用して堅牢な特徴を学習する。 しかし、学習した情報はおそらく同じインスタンスの異なるビューに限られている。 本稿では,2つの異なる画像間の類似性を活用し,自己教師付き学習における表現の促進を図る。 インスタンスレベルの情報とは対照的に、2つの異なる画像間の類似性はより有用な情報を提供する。 さらに,類似度損失と特徴量クロスエントロピー損失の関係を分析する。 この2つの損失は、ほとんどのディープラーニング手法に不可欠です。 しかし、この2つの損失の関係は明らかではない。 類似度損失はインスタンスレベルの表現を得るのに役立ち、特徴レベルのクロスエントロピー損失は2つの異なる画像間の類似性を調べるのに役立ちます。 これら2つの損失の適切な組み合わせが最先端の結果を得ることができることを示すために、理論的解析と実験を提供する。

Self-supervised learning enables networks to learn discriminative features from massive data itself. Most state-of-the-art methods maximize the similarity between two augmentations of one image based on contrastive learning. By utilizing the consistency of two augmentations, the burden of manual annotations can be freed. Contrastive learning exploits instance-level information to learn robust features. However, the learned information is probably confined to different views of the same instance. In this paper, we attempt to leverage the similarity between two distinct images to boost representation in self-supervised learning. In contrast to instance-level information, the similarity between two distinct images may provide more useful information. Besides, we analyze the relation between similarity loss and feature-level cross-entropy loss. These two losses are essential for most deep learning methods. However, the relation between these two losses is not clear. Similarity loss helps obtain instance-level representation, while feature-level cross-entropy loss helps mine the similarity between two distinct images. We provide theoretical analyses and experiments to show that a suitable combination of these two losses can get state-of-the-art results.
翻訳日:2023-01-10 16:04:31 公開日:2023-01-08
# SpeeChain: 大規模音声チェインのための音声ツールキット

SpeeChain: A Speech Toolkit for Large-Scale Machine Speech Chain ( http://arxiv.org/abs/2301.02966v1 )

ライセンス: Link先を確認
Heli Qi, Sashi Novitasari, Andros Tjandra, Sakriani Sakti, Satoshi Nakamura(参考訳) 本稿では,PytorchをベースとしたオープンソースのツールキットであるSpeeChainを紹介する。 この最初のリリースは、マシン音声チェーンのコアコンポーネントであるTS-to-ASRチェーンに焦点を当てている。 大規模TS-to-ASRチェーンのための効率的なパイプラインを構築するため,マルチGPUバッチレベルモデル推論,マルチデータローダバッチ生成,オンザフライデータ選択手法を実装した。 本稿では,まずtts-to-asr連鎖の全体手順と各ステップの難易度について述べる。 次に,非ラベルデータの種類,データフィルタリングしきい値,バッチ合成,実合成データ比について詳細なアブレーション研究を行う。 LibriSpeech の train_clean_460 に対する実験結果から,我々の TTS-to-ASR 連鎖は半教師付き環境で WER を大幅に改善できることが示された。

This paper introduces SpeeChain, an open-source Pytorch-based toolkit designed to develop the machine speech chain for large-scale use. This first release focuses on the TTS-to-ASR chain, a core component of the machine speech chain, that refers to the TTS data augmentation by unspoken text for ASR. To build an efficient pipeline for the large-scale TTS-to-ASR chain, we implement easy-to-use multi-GPU batch-level model inference, multi-dataloader batch generation, and on-the-fly data selection techniques. In this paper, we first explain the overall procedure of the TTS-to-ASR chain and the difficulties of each step. Then, we present a detailed ablation study on different types of unlabeled data, data filtering thresholds, batch composition, and real-synthetic data ratios. Our experimental results on train_clean_460 of LibriSpeech demonstrate that our TTS-to-ASR chain can significantly improve WER in a semi-supervised setting.
翻訳日:2023-01-10 16:04:04 公開日:2023-01-08
# 非マルコフ行動の強化学習のための学習記号表現

Learning Symbolic Representations for Reinforcement Learning of Non-Markovian Behavior ( http://arxiv.org/abs/2301.02952v1 )

ライセンス: Link先を確認
Phillip J.K. Christoffersen, Andrew C. Li, Rodrigo Toro Icarte, Sheila A. McIlraith(参考訳) 多くの実世界の強化学習(RL)問題は、学習が複雑で、時間的に拡張された振る舞いを必要とする。 報酬に値する振る舞いが分かっている場合、それは非マルコフ報酬関数(現在の状態や行動だけでなく、状態-行動履歴の側面に依存する関数)の観点から指定することができる。 このような報酬関数はスパース報酬をもたらし、報酬に値する行動パターンを捉えるポリシーを見つけるために、不規則な数の経験を必要とする。 最近の研究は知識表現(KR)を活用し、状態-行動履歴の報酬関連特性を要約した状態の側面の象徴的な抽象化を提供し、KR上のオートマトンの観点からマルコフ分解の学習を支援する。 このような分解を提供することで、特にオートマトン構造を利用するアルゴリズムと組み合わせることで、学習率を大幅に向上することが示されている。 しかしながら、そのような手法はKRの事前知識に依存している。 本研究では、状態-作用履歴の学習を支援する有用な状態抽象化を自動的に発見する方法を検討する。 その結果、単純な非マルコフ領域における最先端RLよりもはるかに少ない環境サンプルで最適なポリシーを学習できるエンドツーエンドアルゴリズムが得られた。

Many real-world reinforcement learning (RL) problems necessitate learning complex, temporally extended behavior that may only receive reward signal when the behavior is completed. If the reward-worthy behavior is known, it can be specified in terms of a non-Markovian reward function - a function that depends on aspects of the state-action history, rather than just the current state and action. Such reward functions yield sparse rewards, necessitating an inordinate number of experiences to find a policy that captures the reward-worthy pattern of behavior. Recent work has leveraged Knowledge Representation (KR) to provide a symbolic abstraction of aspects of the state that summarize reward-relevant properties of the state-action history and support learning a Markovian decomposition of the problem in terms of an automaton over the KR. Providing such a decomposition has been shown to vastly improve learning rates, especially when coupled with algorithms that exploit automaton structure. Nevertheless, such techniques rely on a priori knowledge of the KR. In this work, we explore how to automatically discover useful state abstractions that support learning automata over the state-action history. The result is an end-to-end algorithm that can learn optimal policies with significantly fewer environment samples than state-of-the-art RL on simple non-Markovian domains.
翻訳日:2023-01-10 15:56:05 公開日:2023-01-08
# 等変・ステアブルニューラルネットワーク--対称群を中心に-

Equivariant and Steerable Neural Networks: A review with special emphasis on the symmetric group ( http://arxiv.org/abs/2301.03019v1 )

ライセンス: Link先を確認
Patrick Kr\"uger, Hanno Gottschalk(参考訳) 畳み込みニューラルネットワークはコンピュータビジョンとナルーラル言語処理に革命をもたらした。 その効率性は、完全に接続されたニューラルネットワークと比較して、パターンや音声認識タスクにおいて、畳み込みが空間や時間における変換不変性を反映しているアーキテクチャに起源がある。 近年、コーエンとウェリングは、このことを対称群の下での不変性(invariance)のより広い視点で捉え、グループ同値ニューラルネットワークとより一般に操縦可能なニューラルネットワークの概念に繋がる。 本稿では,等変層やフィルタバンク,カプセルによる活性化,グループプールなどのネットワークアーキテクチャについて概説する。 この形式を対称群に適用し、文献には見つからない表現やカプセルについて多くの詳細を述べる。

Convolutional neural networks revolutionized computer vision and natrual language processing. Their efficiency, as compared to fully connected neural networks, has its origin in the architecture, where convolutions reflect the translation invariance in space and time in pattern or speech recognition tasks. Recently, Cohen and Welling have put this in the broader perspective of invariance under symmetry groups, which leads to the concept of group equivaiant neural networks and more generally steerable neural networks. In this article, we review the architecture of such networks including equivariant layers and filter banks, activation with capsules and group pooling. We apply this formalism to the symmetric group, for which we work out a number of details on representations and capsules that are not found in the literature.
翻訳日:2023-01-10 15:55:43 公開日:2023-01-08
# 強化学習における変圧器の検討

A Survey on Transformers in Reinforcement Learning ( http://arxiv.org/abs/2301.03044v1 )

ライセンス: Link先を確認
Wenzhe Li, Hao Luo, Zichuan Lin, Chongjie Zhang, Zongqing Lu, Deheng Ye(参考訳) Transformer は NLP と CV において支配的なニューラルネットワークアーキテクチャと見なされている。 近年、強化学習(RL)分野においてトランスフォーマーの使用が急増しているが、RLの性質によってもたらされるユニークな設計選択と課題に直面している。 しかし、RLにおけるトランスフォーマーの進化は、まだよく分かっていない。 そこで本稿では,RLにおけるトランスフォーマーの利用のモチベーションと進歩を体系的に検証し,既存の作業の分類を提供し,各サブフィールドについて議論し,今後の展望を要約する。

Transformer has been considered the dominating neural architecture in NLP and CV, mostly under a supervised setting. Recently, a similar surge of using Transformers has appeared in the domain of reinforcement learning (RL), but it is faced with unique design choices and challenges brought by the nature of RL. However, the evolution of Transformers in RL has not yet been well unraveled. Hence, in this paper, we seek to systematically review motivations and progress on using Transformers in RL, provide a taxonomy on existing works, discuss each sub-field, and summarize future prospects.
翻訳日:2023-01-10 15:55:30 公開日:2023-01-08
# オンラインコンテント解決方式による完全動的オンライン選択

Fully Dynamic Online Selection through Online Contention Resolution Schemes ( http://arxiv.org/abs/2301.03099v1 )

ライセンス: Link先を確認
Vashist Avadhanula, Andrea Celli, Riccardo Colini-Baldeschi, Stefano Leonardi, Matteo Russo(参考訳) 本研究では,ベイズ的オンライン選択,預言不平等,ポスト価格機構,確率的探索問題を含む,対数的・確率的な環境下でのオンライン選択問題について検討する。 古典的な `incremental'' バージョンでは、選択された要素は入力シーケンスの終了までアクティブである。 一方、問題の完全な動的バージョンでは、要素は限られた時間間隔で活動し続け、それから去る。 このモデルは、例えば、タスク/ワーカーに依存した作業時間を持つ労働者に対するタスクのオンラインマッチングや、販売可能な商品の価格の逐次投稿といったものです。 オンライン競合解決スキーム (OCRS) は, オンライン競合解決スキーム (OCRS) の概念を用いて, 入力シーケンスの任意の逆順に対して, 最適分数解がオンラインに丸められている最適化問題の線形緩和を定式化したものである。 本研究の主な貢献は,完全動的オンライン選択問題に対するocrs構築のための汎用的手法を提供することである。 そして,このようなOCRSを用いて,半帯域フィードバックと逆入力を持つ部分情報モデルにおいて,非回帰アルゴリズムを構築する方法を示す。

We study fully dynamic online selection problems in an adversarial/stochastic setting that includes Bayesian online selection, prophet inequalities, posted price mechanisms, and stochastic probing problems subject to combinatorial constraints. In the classical ``incremental'' version of the problem, selected elements remain active until the end of the input sequence. On the other hand, in the fully dynamic version of the problem, elements stay active for a limited time interval, and then leave. This models, for example, the online matching of tasks to workers with task/worker-dependent working times, and sequential posted pricing of perishable goods. A successful approach to online selection problems in the adversarial setting is given by the notion of Online Contention Resolution Scheme (OCRS), that uses a priori information to formulate a linear relaxation of the underlying optimization problem, whose optimal fractional solution is rounded online for any adversarial order of the input sequence. Our main contribution is providing a general method for constructing an OCRS for fully dynamic online selection problems. Then, we show how to employ such OCRS to construct no-regret algorithms in a partial information model with semi-bandit feedback and adversarial inputs.
翻訳日:2023-01-10 15:55:18 公開日:2023-01-08
# 従来の可読性公式と英語の比較

Traditional Readability Formulas Compared for English ( http://arxiv.org/abs/2301.02975v1 )

ライセンス: Link先を確認
Bruce W. Lee, Jason Hyung-Jong Lee(参考訳) 伝統的な英語の可読性公式(式)は20世紀に大きく発展した。 それでも、多くの研究者が様々なNLPアプリケーションに頼っている。 このような現象は、可読性公式の利便性と単純さが原因と考えられる。 本研究ではNLPコミュニティに貢献する。 1.新英語可読性公式(NERF)の導入 2. 旧可読性式(フレッシュ・キンケイド級、フォッグ指数、SMOG指数、コールマン・リオー指数、自動可読性指数)の係数の補正 3 可読性式の評価、簡易化研究及び医用テキストにおける使用、及び さまざまなNLPプロジェクトに広く適用するためのPythonベースのプログラムの開発。

Traditional English readability formulas, or equations, were largely developed in the 20th century. Nonetheless, many researchers still rely on them for various NLP applications. Such a phenomenon is presumably due to the convenience and straightforwardness of readability formulas. In this work, we contribute to the NLP community by 1. introducing New English Readability Formula (NERF), 2. recalibrating the coefficients of old readability formulas (Flesch-Kincaid Grade Level, Fog Index, SMOG Index, Coleman-Liau Index, and Automated Readability Index), 3. evaluating the readability formulas, for use in text simplification studies and medical texts, and 4. developing a Python-based program for the wide application to various NLP projects.
翻訳日:2023-01-10 15:49:35 公開日:2023-01-08
# 変圧器を用いたマルチスケールマルチモーダルマイクロ圧縮認識アルゴリズム

Multi-scale multi-modal micro-expression recognition algorithm based on transformer ( http://arxiv.org/abs/2301.02969v1 )

ライセンス: Link先を確認
Fengping Wang, Jie Li, Chun Qi, Lin Wang, Pan Wang(参考訳) マイクロ表現は、人々が隠そうとする真の感情を明らかにする、自発的な無意識の顔面筋肉運動である。 手動の手法は進歩し、深層学習が普及している。 顔領域におけるマイクロ表現の出現期間が短いことや、顔領域での表現尺度が異なることから、既存のアルゴリズムでは、コンテキスト情報を考慮したマルチモーダルな顔領域特徴の抽出は不可能である。 そこで, この問題を解決するために, トランスフォーマーネットワークに基づくマルチモーダルマルチスケールアルゴリズムを提案し, マイクロプレッションの局所的マルチグレード特徴を2つのモーダル特徴とテクスチャ特徴から完全に学習することを目的とした。 異なるスケールで顔の局所的な特徴を得るために,両モードの異なるスケールでパッチの特徴を学習し,その特徴を重み付けして多層多層注意重み付けを行い,モデル最適化のためのクロスモーダルコントラスト学習を組み合わせた。 我々は3つの自発的データセットに関する総合的な実験を行い、その結果、単一測定SMICデータベースにおける提案アルゴリズムの精度は78.73%、組合せデータベースのCASMEII上のF1値は最大0.9071であることを示した。

A micro-expression is a spontaneous unconscious facial muscle movement that can reveal the true emotions people attempt to hide. Although manual methods have made good progress and deep learning is gaining prominence. Due to the short duration of micro-expression occurrence and different scales of expressing in facial regions, existing algorithms cannot extract multi-modal multi-scale facial region features while taking into account contextual information to learn underlying features. Therefore, in order to solve the above problems, a multi-modal multi-scale algorithm based on transformer network is proposed in this paper, aiming to fully learn local multi-grained features of micro-expressions through two modal features of micro-expressions - motion features and texture features. To obtain local area features of the face at different scales, we learned patch features at different scales for both modalities, and then fused multi-layer multi-headed attention weights to obtain effective features by weighting the patch features, and combined cross-modal contrastive learning for model optimization. We conducted comprehensive experiments on three spontaneous datasets, and the results show the accuracy of the proposed algorithm in single measurement SMIC database is up to 78.73% and the F1 value on CASMEII of the combined database is up to 0.9071, which is at the leading level.
翻訳日:2023-01-10 15:49:01 公開日:2023-01-08
# RobArch: 敵の攻撃に対してロバストなアーキテクチャを設計する

RobArch: Designing Robust Architectures against Adversarial Attacks ( http://arxiv.org/abs/2301.03110v1 )

ライセンス: Link先を確認
ShengYun Peng, Weilin Xu, Cory Cornelius, Kevin Li, Rahul Duggal, Duen Horng Chau and Jason Martin(参考訳) adversarial trainingは、ディープニューラルネットワーク(dnn)の堅牢性を改善するための最も効果的なアプローチである。 しかしながら、敵対的トレーニングプロセスの最適化に関する大規模な研究と比較すると、アーキテクチャコンポーネントが堅牢性にどう影響するか、モデルキャパシティを制限することはめったにない。 したがって、頑丈さがどこから来たのかははっきりしない。 本研究は,DNNアーキテクチャコンポーネントの固定パラメータ予算下でのロバスト性に関する,最初の大規模体系的な研究である。 調査を通じて、モデル開発者が深い洞察を得るための18の行動可能な堅牢なネットワーク設計ガイドラインを抽出する。 これらのガイドラインの有効性を,強敵攻撃に対するパラメータ容量にわたってトップパフォーマンスモデルのファミリを構築するためのガイドラインをインスタンス化する,新しいロバストアーキテクチャ(robarch)モデルを導入することで実証する。 RobArchは、RobustBench ImageNetリーダボード上で、最先端のAutoAttackの新たな精度を実現している。 コードは$\href{https://github.com/ShengYun-Peng/RobArch}{\text{this url}}$で入手できる。

Adversarial Training is the most effective approach for improving the robustness of Deep Neural Networks (DNNs). However, compared to the large body of research in optimizing the adversarial training process, there are few investigations into how architecture components affect robustness, and they rarely constrain model capacity. Thus, it is unclear where robustness precisely comes from. In this work, we present the first large-scale systematic study on the robustness of DNN architecture components under fixed parameter budgets. Through our investigation, we distill 18 actionable robust network design guidelines that empower model developers to gain deep insights. We demonstrate these guidelines' effectiveness by introducing the novel Robust Architecture (RobArch) model that instantiates the guidelines to build a family of top-performing models across parameter capacities against strong adversarial attacks. RobArch achieves the new state-of-the-art AutoAttack accuracy on the RobustBench ImageNet leaderboard. The code is available at $\href{https://github.com/ShengYun-Peng/RobArch}{\text{this url}}$.
翻訳日:2023-01-10 15:48:37 公開日:2023-01-08
# InPars-Light:効率的なランク付けの非教師なしトレーニング

InPars-Light: Cost-Effective Unsupervised Training of Efficient Rankers ( http://arxiv.org/abs/2301.02998v1 )

ライセンス: Link先を確認
Leonid Boytsov, Preksha Patel, Vivek Sourabh, Riddhi Nisar, Sayani Kundu, Ramya Ramanathan, Eric Nyberg(参考訳) 神経ランカの教師なし訓練におけるinparsレシピの再現性検討を行った。 本研究の副産物として、我々はInPars-lightと呼ばれるInParsの簡易効果修飾を開発した。 InParsとは違って、InPars-lightは無料の言語モデルBLOOMと7x-100x小さいランキングモデルのみを使用する。 元のInPars研究で使用した5つの英語検索コレクションについて,nDCGおよびMRRのBM25に対して,30Mパラメータ6層のMiniLMランキングを用いた統計的に有意な改善が得られた(7-30%)。 対照的にInParsの調査では、100倍のMonoT5-3BモデルがBM25を一貫して上回り、小さなMonoT5-220Mモデル(MiniLMランキングの7倍も大きい)はMS MARCOとTREC DL 2020のみ上回りました。 純粋に教師なしの環境では、私たちの435MパラメータであるDeBERTA v3ランキングは、およそ7倍大きなMonoT5-3Bと同等でした。 最後に、これらの良い結果は、InParsで使われる1000に対して100の候補文書を再ランク付けすることで達成された。 InPars-lightは、BM25を上回るニューラルネットワークランキングモデルをトレーニングし、デプロイするための、真に費用効果の高いプロンプトベースの教師なしのレシピであると考えています。

We carried out a reproducibility study of InPars recipe for unsupervised training of neural rankers. As a by-product of this study, we developed a simple-yet-effective modification of InPars, which we called InPars-light. Unlike InPars, InPars-light uses only a freely available language model BLOOM and 7x-100x smaller ranking models. On all five English retrieval collections (used in the original InPars study) we obtained substantial (7-30%) and statistically significant improvements over BM25 in nDCG or MRR using only a 30M parameter six-layer MiniLM ranker. In contrast, in the InPars study only a 100x larger MonoT5-3B model consistently outperformed BM25, whereas their smaller MonoT5-220M model (which is still 7x larger than our MiniLM ranker), outperformed BM25 only on MS MARCO and TREC DL 2020. In a purely unsupervised setting, our 435M parameter DeBERTA v3 ranker was roughly at par with the 7x larger MonoT5-3B: In fact, on three out of five datasets, it slightly outperformed MonoT5-3B. Finally, these good results were achieved by re-ranking only 100 candidate documents compared to 1000 used in InPars. We believe that InPars-light is the first truly cost-effective prompt-based unsupervised recipe to train and deploy neural ranking models that outperform BM25.
翻訳日:2023-01-10 15:46:59 公開日:2023-01-08
# ファクトチェックのための人間中心NLP技術の現状

The State of Human-centered NLP Technology for Fact-checking ( http://arxiv.org/abs/2301.03056v1 )

ライセンス: Link先を確認
Anubrata Das, Houjiang Liu, Venelin Kovatchev, Matthew Lease(参考訳) 誤報は科学に対する不信感を促進し、公衆衛生の物語を変え、社会の分極を高め、民主党の選挙や金融市場を混乱させることで現代社会を脅かす。 これを解決するために、プロのファクトチェッカーやジャーナリストが、報告された事実に関する高品質な調査を行っている。 しかし、これらの手作業の大部分は、問題の巨大な規模に合わせるのに苦労している。 これに対し、よりスケーラブルなファクトチェックのために、NLP(Natural Language Processing)技術が提案されている。 しかし、こうした研究の著しい成長にもかかわらず、事実確認のためのnlp技術の実用化はいまだに始まったばかりである。 本稿では,ファクトチェックにおける現在のNLP技術の能力と限界について概観する。 我々が特に注力しているのは、人間のファクトチェックのニーズをよりよく満たすために、これらのテクノロジーをどのように活用し、洗練できるかをデザインスペースを更に図示することです。 そこで我々は,NLPに基づくファクトチェックにおける重要な側面として,タスクの定式化,データセットの構築,モデリング,説明可能なモデルやヒューマン・イン・ザ・ループアプローチなどの人間中心戦略について検討する。 次に,人間のファクトチェックを支援するためのNLPベースのファクトチェックツールの有効性について検討する。 我々は,NLP研究の初期におけるファクトチェッカーステークホルダーとのコラボレーションや,人為的利用と実践的採用のための技術開発をさらに指導するために,モデル開発に人間中心のデザインプラクティスを取り入れることを推奨する。 最後に,人間中心の事実検査技術の外部評価を支援するベンチマーク開発に関するさらなる研究を提唱する。

Misinformation threatens modern society by promoting distrust in science, changing narratives in public health, heightening social polarization, and disrupting democratic elections and financial markets, among a myriad of other societal harms. To address this, a growing cadre of professional fact-checkers and journalists provide high-quality investigations into purported facts. However, these largely manual efforts have struggled to match the enormous scale of the problem. In response, a growing body of Natural Language Processing (NLP) technologies have been proposed for more scalable fact-checking. Despite tremendous growth in such research, however, practical adoption of NLP technologies for fact-checking still remains in its infancy today. In this work, we review the capabilities and limitations of the current NLP technologies for fact-checking. Our particular focus is to further chart the design space for how these technologies can be harnessed and refined in order to better meet the needs of human fact-checkers. To do so, we review key aspects of NLP-based fact-checking: task formulation, dataset construction, modeling, and human-centered strategies, such as explainable models and human-in-the-loop approaches. Next, we review the efficacy of applying NLP-based fact-checking tools to assist human fact-checkers. We recommend that future research include collaboration with fact-checker stakeholders early on in NLP research, as well as incorporation of human-centered design practices in model development, in order to further guide technology development for human use and practical adoption. Finally, we advocate for more research on benchmark development supporting extrinsic evaluation of human-centered fact-checking technologies.
翻訳日:2023-01-10 15:46:30 公開日:2023-01-08
# 顔属性分類のための公正なマルチエクイットフレームワーク

Fair Multi-Exit Framework for Facial Attribute Classification ( http://arxiv.org/abs/2301.02989v1 )

ライセンス: Link先を確認
Ching-Hao Chiu, Hao-Wei Chung, Yu-Jen Chen, Yiyu Shi, Tsung-Yi Ho(参考訳) 顔認識において公平性はますます重要になっている。 バイアス緩和がなければ、不公平なaiの導入は、特権のない人口の利益を損なうことになる。 本稿では,ニューラルネットワークの深い層から特徴を得られる高い精度ではあるものの,より深い層から特徴を抽出すると公平性が低下することを示す。 この現象は、マルチエクイットフレームワークの概念を拡張する動機付けとなります。 正確性を重視した既存の作業とは異なり、当社のマルチエクイットフレームワークはフェアネス指向であり、内部分類器をより正確かつ公平に訓練しています。 推論中、内部分類器からの信頼性の高い任意のインスタンスは、早期に終了する。 さらに、我々のフレームワークは既存のフェアネス対応のフレームワークにも適用できます。 実験結果から,提案フレームワークはCelebAおよびUTK Faceデータセットの最先端技術よりも公正性条件を大幅に改善できることが示された。

Fairness has become increasingly pivotal in facial recognition. Without bias mitigation, deploying unfair AI would harm the interest of the underprivileged population. In this paper, we observe that though the higher accuracy that features from the deeper layer of a neural networks generally offer, fairness conditions deteriorate as we extract features from deeper layers. This phenomenon motivates us to extend the concept of multi-exit framework. Unlike existing works mainly focusing on accuracy, our multi-exit framework is fairness-oriented, where the internal classifiers are trained to be more accurate and fairer. During inference, any instance with high confidence from an internal classifier is allowed to exit early. Moreover, our framework can be applied to most existing fairness-aware frameworks. Experiment results show that the proposed framework can largely improve the fairness condition over the state-of-the-art in CelebA and UTK Face datasets.
翻訳日:2023-01-10 15:29:30 公開日:2023-01-08