このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20230114となっている論文です。

PDF登録状況(公開日: 20230114)

TitleAuthorsAbstract論文公表日・翻訳日
# 量子重なりトモグラフィの実験的実証

Experimental demonstration of Quantum Overlapping Tomography ( http://arxiv.org/abs/2207.14488v2 )

ライセンス: Link先を確認
Yang Zhengning, Shihao Ru, Lianzhen Cao, Nikolay Zheludev, and Weibo Gao(参考訳) 量子トモグラフィーは、指数時間複雑性による大規模量子情報研究の大きな課題の1つである。 本研究では,量子重畳トモグラフィーを実験的に実証するためにベイズ状態推定法を開発した。 Rev. Lett. \textbf{124}, 100401 (2020)] 対数時間複雑性において多体量子システムの臨界情報を特徴付けるためのスキームである。 フルステートトモグラフィーとオーバーラップトモグラフィーの計測結果を比較することで,オーバーラップトモグラフィーはフルステートトモグラフィーよりも測定値の少ないシステムの正確な情報を与えることを示した。

Quantum tomography is one of the major challenges of large-scale quantum information research due to the exponential time complexity. In this work, we develop and apply a Bayesian state estimation method to experimentally demonstrate quantum overlapping tomography [Phys. Rev. Lett. \textbf{124}, 100401 (2020)], a scheme intent on characterizing critical information of a many-body quantum system in logarithmic time complexity. By comparing the measurement results of full state tomography and overlapping tomography, we show that overlapping tomography gives accurate information of the system with much fewer state measurements than full state tomography.
翻訳日:2023-02-03 02:26:00 公開日:2023-01-14
# 独立摂動列による積分可能性-カオス遷移の探索

Exploring integrability-chaos transition with a sequence of independent perturbations ( http://arxiv.org/abs/2208.00039v2 )

ライセンス: Link先を確認
Vladimir A. Yurovsky (School of Chemistry, Tel Aviv University)(参考訳) 相互作用する粒子の気体はカオスシステムのパラダイム的例である。 ここでは、1つの粒子を除く全ての粒子が一般の位置に固定されているとしても、移動粒子の励起状態はカオス的であることを示す。 それらは主成分数(npc)によって特徴づけられる -- 非可積分成分に含まれる可積分系固有状態の数であり、強力な散乱器の数で線形に増加する。 この規則は、システムカオス性に対するさらなる摂動の一般的な効果の特別な場合である。 ここで、システムのカオス性の増加を示唆する摂動独立基準も導出する。 この効果は、NPCに逆比例する観測可能なゆらぎのばらつきの崩壊として光子や冷たい原子を用いた実験で観測され、したがって散乱器の数に比例する。 この崩壊は固有状態の熱化が近づくことを示している。 この結果は、ゼロレンジ散乱器を軸に持つ高調波導波路の数値計算によって確認される。

A gas of interacting particles is a paradigmatic example of chaotic systems. It is shown here that even if all but one particle are fixed in generic positions, the excited states of the moving particle are chaotic. They are characterized by the number of principal components (NPC) -- the number of integrable system eigenstates involved into the non-integrable one, which increases linearly with the number of strong scatterers. This rule is a particular case of the general effect of an additional perturbation on the system chaotic properties. The perturbation independence criteria supposing the system chaoticity increase are derived here as well. The effect can be observed in experiments with photons or cold atoms as the decay of observable fluctuation variance, which is inversely proportional to NPC, and, therefore, to the number of scatterers. This decay indicates that the eigenstate thermalization is approached. The results are confirmed by numerical calculations for a harmonic waveguide with zero-range scatterers along its axis.
翻訳日:2023-02-03 02:08:04 公開日:2023-01-14
# CT または P 問題と対称ゲル化フェルミオン溶液

CT or P Problem and Symmetric Gapped Fermion Solution ( http://arxiv.org/abs/2207.14813v3 )

ライセンス: Link先を確認
Juven Wang(参考訳) 類似の "strong cp problem" が2次元時空のトイモデルで同定される: 一般の 1+1d アーベル u(1) anomaly-free chiral fermion and chiral gauge theory with a generic theta instanton term $\frac{\theta}{2 \pi} \int f$。 テータ項だけでも電荷共役時間反転CTとパリティP離散対称性に反する。 ここでの類似のパズルは、1+1dのCTやPの問題である:なぜ$\bar{\theta}$角($\theta$の効果と質量行列の複素位相を含む)は自然の理由でゼロか小さいのか? このctまたはp問題は、対称質量発生機構(smg、anomaly-free symmetry を保ちながら質量またはエネルギーギャップを生成する)によって解決できることを示す。 この1+1d玩具モデルは、3+1d標準モデルのいくつかの特徴を模倣している: キラル物質含量、閉じ込め、およびYukawa-Higgs項によるアンダーソン・ヒッグス誘起質量である。 ある溶液は、キラルフェルミオンのヒッグス誘導平均場質量をSMG誘導非平均場質量に置き換える。 パリティリフレクションpr キラルとミラーフェルミオンの間の離散対称性マップ 高エネルギーで2つのドメインウォールに局在化したフェルミオンとして、smgはミラーフェルミオンに質量を動的に生成するが、ヒッグス機構が低エネルギーでキラルフェルミオンに質量を生成する前に、中間エネルギースケールでアノマリーフリーなキラル対称性を保ちながら、ミラーフェルミオンに動的に質量を生成する。 一般性を失うことなく、最も単純な1+1d u(1)対称のキラルフェルミオン/ゲージ理論(例えば、3_l$-$4_l$-$5_r$-$0_r$ u(1)のワイルフェルミオン)が示される。 超流体絶縁体(英語版)や秩序分散量子相転移(英語版)の類似として、(準長距離超流体相にあるペッキー・クイン溶液とは対照的に、我々の解はSMG絶縁体乱相にある。

An analogous "Strong CP problem" is identified in a toy model in 2-dimensional spacetime: a general 1+1d abelian U(1) anomaly-free chiral fermion and chiral gauge theory with a generic theta instanton term $\frac{\theta}{2 \pi} \int F$. The theta term alone violates the charge-conjugation-time-reversal CT and the parity P discrete symmetries. The analogous puzzle here is the CT or P problem in 1+1d: Why can the $\bar{\theta}$ angle (including the effect of $\theta$ and the complex phase of a mass matrix) be zero or small for a natural reason? We show that this CT or P problem can be solved by a Symmetric Mass Generation mechanism (SMG, namely generating a mass or energy gap while preserving an anomaly-free symmetry). This 1+1d toy model mimics several features of the 3+1d Standard Model: chiral matter content, confinement, and Anderson-Higgs-induced mass by Yukawa-Higgs term. One solution replaces some chiral fermion's Higgs-induced mean-field mass with SMG-induced non-mean-field mass. Another solution enriches this toy model by introducing several new physics beyond the Standard Model: a parity-reflection PR discrete symmetry maps between the chiral and mirror fermions as fermion doubling localized on two domain walls at high energy, and SMG dynamically generates mass to the mirror fermion while still preserving the anomaly-free chiral symmetry at an intermediate energy scale, much before the Higgs mechanism generates mass to the chiral fermion at lower energy. Without loss of generality, an arguably simplest 1+1d U(1) symmetric anomaly-free chiral fermion/gauge theory (e.g., Weyl fermions with $3_L$-$4_L$-$5_R$-$0_R$ U(1) charges) is demonstrated. As an analogy to the superfluid-insulator or order-disorder quantum phase transition, in contrast to the Peccei-Quinn solution sitting in the (quasi-long-range-order) superfluid phase, our solution is in the SMG insulator disordered phase.
翻訳日:2023-02-03 02:06:36 公開日:2023-01-14
# ロバスト・アドバンスト・モデリング・スケジューリングシステムを用いた宇宙飛行士の自己スケジューリング--火星のアナログミッションにおける評価

Enabling Astronaut Self-Scheduling using a Robust Advanced Modelling and Scheduling system: an assessment during a Mars analogue mission ( http://arxiv.org/abs/2301.08248v1 )

ライセンス: Link先を確認
Michael Saint-Guillain, Jean Vanderdonckt, Nicolas Burny, Vladimir Pletser, Tiago Vaquero, Steve Chien, Alexander Karl, Jessica Marquez, John Karasinski, Cyril Wain, Audrey Comein, Ignacio S. Casla, Jean Jacobs, Julien Meert, Cheyenne Chamart, Sirga Drouet, Julie Manon(参考訳) 人間長期探査ミッション(LDEM)は多くの技術的課題を提起している。 距離が大きくなるにつれて、通信遅延や制約により、宇宙飛行士がリアルタイムの地上制御によって監視され、支援されるのを防ぐ傾向にある。 将来的には、将来の惑星探査には宇宙飛行士の自己スケジュールが必要だ。 ユタ州の火星砂漠研究ステーション(MDRS, Mars Society)で行われた火星シミュレーションミッションにおいて, アナログ宇宙飛行士の乗組員によるコンピュータ意思決定支援ツールの使用について検討した。 提案されたツールはRomieと呼ばれ、Robost Advanced Modelling and Scheduling (RAMS)システムの新しいカテゴリに属している。 乗組員を許可する 一 科学的目的及び制約を視覚的にモデル化すること (ii)不確実性を考慮して、最適に近い運用スケジュールを計算すること (iii)過去・現在の活動の実施を監視すること、及び (四)予期せぬ事柄及び機会科学の科学的目的・制約を変更すること。 本研究では,火星の生息環境を模擬した現実的な仮定の下での自己スケジューリングにおいて,初級プランナーである宇宙飛行士がこのようなツールを用いてどのように機能するかを実証的に測定する。

Human long duration exploration missions (LDEMs) raise a number of technological challenges. This paper addresses the question of the crew autonomy: as the distances increase, the communication delays and constraints tend to prevent the astronauts from being monitored and supported by a real time ground control. Eventually, future planetary missions will necessarily require a form of astronaut self-scheduling. We study the usage of a computer decision-support tool by a crew of analog astronauts, during a Mars simulation mission conducted at the Mars Desert Research Station (MDRS, Mars Society) in Utah. The proposed tool, called Romie, belongs to the new category of Robust Advanced Modelling and Scheduling (RAMS) systems. It allows the crew members (i) to visually model their scientific objectives and constraints, (ii) to compute near-optimal operational schedules while taking uncertainty into account, (iii) to monitor the execution of past and current activities, and (iv) to modify scientific objectives/constraints w.r.t. unforeseen events and opportunistic science. In this study, we empirically measure how the astronauts, who are novice planners, perform at using such a tool when self-scheduling under the realistic assumptions of a simulated Martian planetary habitat.
翻訳日:2023-01-29 13:59:53 公開日:2023-01-14
# アーティスト情報を用いた音楽プレイリストタイトル生成

Music Playlist Title Generation Using Artist Information ( http://arxiv.org/abs/2301.08145v1 )

ライセンス: Link先を確認
Haven Kim, SeungHeon Doh, Junwon Lee, Juhan Nam(参考訳) 楽曲のリコメンデーションにカスタマイズされたプレイリストが広く使われており、よく構成されたテキストタイトルがユーザーを惹きつけ、音楽の発見を助けるため、音楽ストリーミングサービスでは、音楽プレイリストのタイトルを自動的に生成またはキャプションするのは非常に興味深い。 本稿では,楽曲のシーケンスからプレイリストタイトルを生成するエンコーダ・デコーダモデルを提案する。 以前の研究では、トラックIDをプレイリストタイトル生成のトークン化入力として用いていたが、プレイリストデータセットに含まれるトラックの長期分布から問題を軽減するために、トラックに対応するアーティストIDを使用している。 また,リアルタイムシナリオで新たにリリースしたトラックを扱うための時系列データ分割手法を提案する。 トラックIDとアーティストIDを入力シーケンスとして比較した結果, 単語重複, 意味的関連性, 多様性の観点から, アーティストベースアプローチが性能を著しく向上させることが示された。

Automatically generating or captioning music playlist titles given a set of tracks is of significant interest in music streaming services as customized playlists are widely used in personalized music recommendation, and well-composed text titles attract users and help their music discovery. We present an encoder-decoder model that generates a playlist title from a sequence of music tracks. While previous work takes track IDs as tokenized input for playlist title generation, we use artist IDs corresponding to the tracks to mitigate the issue from the long-tail distribution of tracks included in the playlist dataset. Also, we introduce a chronological data split method to deal with newly-released tracks in real-world scenarios. Comparing the track IDs and artist IDs as input sequences, we show that the artist-based approach significantly enhances the performance in terms of word overlap, semantic relevance, and diversity.
翻訳日:2023-01-29 13:59:24 公開日:2023-01-14
# ダイヤモンド中の窒素空隙中心の高温分光

High temperature spectroscopy of nitrogen vacancy centers in diamond ( http://arxiv.org/abs/2209.12558v3 )

ライセンス: Link先を確認
Mohammed Attrash, Oleg Shtempluck and Eyal Buks(参考訳) 高温高圧下におけるダイヤモンド中の負電荷窒素空孔中心の分光について検討した。 スピン共鳴は、磁気共鳴(ODMR)の光学的検出を用いて研究され、光分光を用いて放射遷移を研究する。 温度が上昇すると、可視および赤外における放射減衰の強度は低下した。 さらに、odmr共鳴周波数が減少し、フォノン線放出が高波長にシフトした。 フォトルミネッセンスの測定強度をモット・セイッツモデルの理論的予測に合わせると、非放射性崩壊に伴うエネルギー障壁に対して$0.24 \operatorname{eV}$の値が得られる。

We study spectroscopy of negatively charged nitrogen-vacancy center in diamond at high temperatures under high vacuum conditions. Spin resonances are studied using optical detection of magnetic resonance (ODMR), and optical spectroscopy is employed to study radiative transitions. Upon increasing the temperature the intensity of radiative decay in visible and infra-red decreased. In addition, the ODMR resonance frequencies were decreased, and the phonon line emission shifted to higher wavelengths. Fitting the measured intensity of photo-luminescence with the theoretical predictions of the Mott-Seitz model yields the value of $0.24 \operatorname{eV}$ for the energy barrier associated with nonradiative decay.
翻訳日:2023-01-25 03:12:33 公開日:2023-01-14
# パラメトリック一般化分数法ニキフォロフ-ウバロフ法とその応用

The Parametric Generalized Fractional Nikiforov-Uvarov Method and Its Applications ( http://arxiv.org/abs/2301.07493v1 )

ライセンス: Link先を確認
M. Abu-shady and H. M. Fath-Allah(参考訳) 一般化分数微分を用いることにより、パラメトリック一般化分数法ニキフォロフ-ウバロフ法(nu法)を導入する。 2階パラメトリック一般化微分方程式は分数形で正確に解かれる。 得られた結果は、拡張されたコーネルポテンシャル、ペスドハーモニックポテンシャル、ミーポテンシャル、クラッツァーフーズポテンシャル、調和振動子ポテンシャル、モースポテンシャル、ウッズ・サクソンポテンシャル、ハルテンポテンシャル、変形したローゼンモースポテンシャル、および分子化学および粒子物理学の分野で重要な役割を果たすポシュル・テラーポテンシャルに適用される。 特殊古典的ケースは、最近の作品と一致する ELFA = BETA = 1 の分数的なケースから得られる。

By using generalized fractional derivative, the parametric generalized fractional Nikiforov-Uvarov (NU) method is introduced. The second-order parametric generalized differential equation is exactly solved in the fractional form. The obtained results are applied on the extended Cornell potential, the pesudoharmonic potential, the Mie potential, the Kratzer-Fues potential, the harmonic oscillator potential, the Morse potential, the Woods-Saxon potential, the Hulthen potential, the deformed Rosen-Morse potential and the Poschl-Teller potential which play an important role in the field of molecular chemistry and particles physics. The special classical cases are obtained from the fractional cases at ELFA = BETA =1 which are agreements with recent works.
翻訳日:2023-01-19 15:59:45 公開日:2023-01-14
# cxl上の永続記憶分散による耐障害訓練

Failure Tolerant Training with Persistent Memory Disaggregation over CXL ( http://arxiv.org/abs/2301.07492v1 )

ライセンス: Link先を確認
Miryeong Kwon, Junhyeok Jang, Hanjin Choi, Sangwon Lee, Myoungsoo Jung(参考訳) 本稿では,分散メモリのプール内で大規模レコメンデーションデータセットを効率的に処理し,低オーバーヘッドのトレーニング障害に耐性を持たせるためのトレーニングcxlを提案する。 この目的のために i) 永続メモリ(PMEM)とGPUをキャッシュコヒーレントドメインにType-2として統合する。 CXLにより、PMEMはGPUのメモリ階層に直接配置でき、GPUはソフトウェアを介さずにPMEMにアクセスできる。 trainingcxlはcxlコントローラの近くにコンピューティングとチェックポイントロジックを導入し、データのトレーニングと永続性の管理をアクティブに行う。 PMEMの脆弱性を考える。 二 推薦モデルの独特な特徴を利用して、その訓練のクリティカルパスからチェックポイントのオーバーヘッドを取り出す。 最後に iii)TRAININGCXLは、トレーニングバッチ間のモデルパラメータと埋め込みの更新シーケンスを緩和する高度なチェックポイント技術を採用している。 評価の結果,TRAININGCXLはPMEMベースの推薦システムと比較して5.2倍のトレーニング性能向上と76%の省エネを実現していることがわかった。

This paper proposes TRAININGCXL that can efficiently process large-scale recommendation datasets in the pool of disaggregated memory while making training fault tolerant with low overhead. To this end, i) we integrate persistent memory (PMEM) and GPU into a cache-coherent domain as Type-2. Enabling CXL allows PMEM to be directly placed in GPU's memory hierarchy, such that GPU can access PMEM without software intervention. TRAININGCXL introduces computing and checkpointing logic near the CXL controller, thereby training data and managing persistency in an active manner. Considering PMEM's vulnerability, ii) we utilize the unique characteristics of recommendation models and take the checkpointing overhead off the critical path of their training. Lastly, iii) TRAININGCXL employs an advanced checkpointing technique that relaxes the updating sequence of model parameters and embeddings across training batches. The evaluation shows that TRAININGCXL achieves 5.2x training performance improvement and 76% energy savings, compared to the modern PMEM-based recommendation systems.
翻訳日:2023-01-19 15:59:31 公開日:2023-01-14
# 安全な制御遷移:マシンビジョンに基づく可観測性指数とデータ駆動テイクオーバー時間予測

Safe Control Transitions: Machine Vision Based Observable Readiness Index and Data-Driven Takeover Time Prediction ( http://arxiv.org/abs/2301.05805v1 )

ライセンス: Link先を確認
Ross Greer, Nachiket Deo, Akshay Rangesh, Pujitha Gunaratne, Mohan Trivedi(参考訳) 自律運転から手動運転への安全な移行を行うには、車両は運転状態の認識を表現する必要があり、この状態を定量化する2つの指標は、可観測性準備指数と乗っ取り時間である。 本研究では,これら2つの指標を予測した機械学習モデルが,複数のカメラビューに対して頑健であることを示す。 重要なことは、これらのモデルは手動の位置と活動に対応する入力特徴ベクトルとして、また視線位置を捉え、これらの特徴ベクトルを生成する際の異なるビューのトレードオフを探ることである。 さらに、テイクオーバイベント後の制御遷移の質を評価するための2つの指標(最大側方偏差と速度偏差)と、これらのポストテイクオーバメトリクスとプリテイクオーバ予測指標との相関を計算する。

To make safe transitions from autonomous to manual control, a vehicle must have a representation of the awareness of driver state; two metrics which quantify this state are the Observable Readiness Index and Takeover Time. In this work, we show that machine learning models which predict these two metrics are robust to multiple camera views, expanding from the limited view angles in prior research. Importantly, these models take as input feature vectors corresponding to hand location and activity as well as gaze location, and we explore the tradeoffs of different views in generating these feature vectors. Further, we introduce two metrics to evaluate the quality of control transitions following the takeover event (the maximal lateral deviation and velocity deviation) and compute correlations of these post-takeover metrics to the pre-takeover predictive metrics.
翻訳日:2023-01-18 18:53:20 公開日:2023-01-14
# 安全な自動運転におけるサルエントサイン検出:完全な視覚コンテキストを理由とするai

Salient Sign Detection In Safe Autonomous Driving: AI Which Reasons Over Full Visual Context ( http://arxiv.org/abs/2301.05804v1 )

ライセンス: Link先を確認
Ross Greer, Akshay Gopalkrishnan, Nachiket Deo, Akshay Rangesh, Mohan Trivedi(参考訳) 道路交通標識を検知し、ドライバーの将来の行動にどのように影響するかを正確に決定することは、安全な自動運転システムにとって重要な課題である。 しかし、運転シーンにおける様々な交通標識は、運転者の判断に不等な影響を与えるため、より重要な作業となる。 本研究は,運転者の判断に影響を及ぼす標識に対する性能を強調するトラヒックサイン検出モデルを構築することで,この問題に対処した。 本研究では,トラヒックサインのサリエンス特性を定義し,アノテートされたサリエンスプロパティを含む最初のトラヒックサインデータセットであるlavas salient signsデータセットを構築する。 次に,salience-sensitive focal lossという独自のsalience loss関数を用いて変形可能なdetrオブジェクト検出モデルを訓練し,salient signの性能向上を強調する。 その結果,Salience-Sensitive Focal Loss で訓練したモデルは,Salient 記号とすべての記号の組み合わせのリコールに関して,無訓練のモデルよりも優れていた。 さらに、Salience-Sensitive Focal Lossで訓練されたモデルでは、すべての標識と比較して、サリアントサインのパフォーマンスマージンが最大である。

Detecting road traffic signs and accurately determining how they can affect the driver's future actions is a critical task for safe autonomous driving systems. However, various traffic signs in a driving scene have an unequal impact on the driver's decisions, making detecting the salient traffic signs a more important task. Our research addresses this issue, constructing a traffic sign detection model which emphasizes performance on salient signs, or signs that influence the decisions of a driver. We define a traffic sign salience property and use it to construct the LAVA Salient Signs Dataset, the first traffic sign dataset that includes an annotated salience property. Next, we use a custom salience loss function, Salience-Sensitive Focal Loss, to train a Deformable DETR object detection model in order to emphasize stronger performance on salient signs. Results show that a model trained with Salience-Sensitive Focal Loss outperforms a model trained without, with regards to recall of both salient signs and all signs combined. Further, the performance margin on salient signs compared to all signs is largest for the model trained with Salience-Sensitive Focal Loss.
翻訳日:2023-01-18 18:53:03 公開日:2023-01-14
# fedssc: 教師付き連帯学習の共有

FedSSC: Shared Supervised-Contrastive Federated Learning ( http://arxiv.org/abs/2301.05797v1 )

ライセンス: Link先を確認
Sirui Hu, Ling Feng, Xiaohan Yang, Yongchao Chen(参考訳) フェデレーション学習は、各デバイスのデータプライバシを維持しながら、複数のデバイス上のグローバルモデルの分散トレーニングを実行するために広く使われている。 しかし、各訓練装置上の異種局所データに苦しむため、集中訓練と同等の精度に達することが困難になる。 クロスエントロピーを上回る教師付きコントラスト学習は、同じクラスに属する点の特徴空間間の差を最小化し、異なるクラスからポイントを取り除こうとする。 そこで本研究では,学習したクラス間特徴空間をデバイスが共有できる教師付きコントラスト学習を提案し,教師付きコントラスト学習損失を正規化用語として加え,特徴空間学習を促進する。 この損失は、同一クラス内の他のデバイスからの特徴マップと平均された特徴マップとの間のコサインの類似度距離を最小化し、特徴マップと別のクラスとの距離を最大化しようとするものである。 この新たな正規化項を月正規化項の上に加えることにより、異種データ分布問題を解決する際の他の最先端正規化項よりも優れていることが分かる。

Federated learning is widely used to perform decentralized training of a global model on multiple devices while preserving the data privacy of each device. However, it suffers from heterogeneous local data on each training device which increases the difficulty to reach the same level of accuracy as the centralized training. Supervised Contrastive Learning which outperform cross-entropy tries to minimizes the difference between feature space of points belongs to the same class and pushes away points from different classes. We propose Supervised Contrastive Federated Learning in which devices can share the learned class-wise feature spaces with each other and add the supervised-contrastive learning loss as a regularization term to foster the feature space learning. The loss tries to minimize the cosine similarity distance between the feature map and the averaged feature map from another device in the same class and maximizes the distance between the feature map and that in a different class. This new regularization term when added on top of the moon regularization term is found to outperform the other state-of-the-art regularization terms in solving the heterogeneous data distribution problem.
翻訳日:2023-01-18 18:52:42 公開日:2023-01-14
# 歩行者横断行動予測のための軌道条件付き関係の学習

Learning Trajectory-Conditioned Relations to Predict Pedestrian Crossing Behavior ( http://arxiv.org/abs/2301.05796v1 )

ライセンス: Link先を確認
Chen Zhou, Ghassan AlRegib, Armin Parchami, Kunjan Singh(参考訳) スマートトランスポートでは、インテリジェントシステムは交通機関、特に歩行者の意図を予測することによって、潜在的な衝突を避ける。 歩行者の意図は将来の行動として定義されており、例えば横断開始は交通環境に依存している。 本稿では,歩行者の歩行軌跡とシーンフレームの依存性を考慮した枠組みを考案する。 まず,歩行者と周辺環境の地域連携情報を時間とともに特徴マップベクトルにエンコードする。 大域関係表現はペアワイズ特徴マップベクトルから抽出され、過去の軌道条件で意図を推定する。 2つのパブリックデータセットに対するアプローチを評価し、最先端の2つのアプローチと比較する。 実験の結果, jaadデータセットにおけるf1-scoreの0.04改善とpieデータセットのリコールの0.01改善により,クロスイベント時の潜在的なリスクを知らせることができた。 さらに, この枠組みにおける関係抽出の寄与を確認するため, アブレーション実験を行った。

In smart transportation, intelligent systems avoid potential collisions by predicting the intent of traffic agents, especially pedestrians. Pedestrian intent, defined as future action, e.g., start crossing, can be dependent on traffic surroundings. In this paper, we develop a framework to incorporate such dependency given observed pedestrian trajectory and scene frames. Our framework first encodes regional joint information between a pedestrian and surroundings over time into feature-map vectors. The global relation representations are then extracted from pairwise feature-map vectors to estimate intent with past trajectory condition. We evaluate our approach on two public datasets and compare against two state-of-the-art approaches. The experimental results demonstrate that our method helps to inform potential risks during crossing events with 0.04 improvement in F1-score on JAAD dataset and 0.01 improvement in recall on PIE dataset. Furthermore, we conduct ablation experiments to confirm the contribution of the relation extraction in our framework.
翻訳日:2023-01-18 18:52:22 公開日:2023-01-14
# フェデレーション学習における中毒攻撃と防衛--調査

Poisoning Attacks and Defenses in Federated Learning: A Survey ( http://arxiv.org/abs/2301.05795v1 )

ライセンス: Link先を確認
Subhash Sagar, Chang-Sun Li, Seng W. Loke, Jinho Choi(参考訳) federated learning(fl)は、トレーニングデータセットのプライバシを損なうことなく、分散クライアント間のモデルのトレーニングを可能にする。 本調査は, 毒性攻撃の分類と, FLの必要性を議論するための実験的評価を提供する。

Federated learning (FL) enables the training of models among distributed clients without compromising the privacy of training datasets, while the invisibility of clients datasets and the training process poses a variety of security threats. This survey provides the taxonomy of poisoning attacks and experimental evaluation to discuss the need for robust FL.
翻訳日:2023-01-18 18:52:07 公開日:2023-01-14
# RMM:クラス増分学習のための強化メモリ管理

RMM: Reinforced Memory Management for Class-Incremental Learning ( http://arxiv.org/abs/2301.05792v1 )

ライセンス: Link先を確認
Yaoyao Liu, Bernt Schiele, Qianru Sun(参考訳) CIL (Class-Incremental Learning) [40] は、厳格なメモリ予算の下で分類器を訓練します。 保存データは再生に使用される例である。 しかし、既存のメソッドは静的かつアドホックな戦略を使ってメモリ割り当てを行う。 本研究では,インクリメンタルフェーズと異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。 本手法を強化記憶管理(RMM)と呼び,強化学習を活用する。 RMMトレーニングは、過去のCILと自然に互換性がなく、インクリメンタルフェーズの間、将来のデータは厳密にアクセスできない。 本稿では,第0フェーズのデータ上に構築されたタスクを擬似CILタスクでRMMのポリシー関数を訓練し,ターゲットタスクに適用することによって,この問題を解決する。 RMMは2つのレベルを伝搬する: Level-1はメモリを古いクラスと新しいクラスに分割する方法を決定し、Level-2は各特定のクラスにメモリを割り当てる。 本質的に、これは任意のリプレイベースCILメソッドで使用できるメモリ管理の最適化可能で一般的な方法である。 評価のために、RMMを2つのトップパフォーマンスベースライン(LUCIR+AANetsとPOD+AANets [30])に接続し、3つのベンチマーク(CIFAR-100、ImageNet-Subset、ImageNet-Full)で実験を行う。 以上のベンチマークでは,POD+AANetsが3.6%,4.4%,1.9%向上した。

Class-Incremental Learning (CIL) [40] trains classifiers under a strict memory budget: in each incremental phase, learning is done for new data, most of which is abandoned to free space for the next phase. The preserved data are exemplars used for replaying. However, existing methods use a static and ad hoc strategy for memory allocation, which is often sub-optimal. In this work, we propose a dynamic memory management strategy that is optimized for the incremental phases and different object classes. We call our method reinforced memory management (RMM), leveraging reinforcement learning. RMM training is not naturally compatible with CIL as the past, and future data are strictly non-accessible during the incremental phases. We solve this by training the policy function of RMM on pseudo CIL tasks, e.g., the tasks built on the data of the 0-th phase, and then applying it to target tasks. RMM propagates two levels of actions: Level-1 determines how to split the memory between old and new classes, and Level-2 allocates memory for each specific class. In essence, it is an optimizable and general method for memory management that can be used in any replaying-based CIL method. For evaluation, we plug RMM into two top-performing baselines (LUCIR+AANets and POD+AANets [30]) and conduct experiments on three benchmarks (CIFAR-100, ImageNet-Subset, and ImageNet-Full). Our results show clear improvements, e.g., boosting POD+AANets by 3.6%, 4.4%, and 1.9% in the 25-Phase settings of the above benchmarks, respectively.
翻訳日:2023-01-18 18:52:00 公開日:2023-01-14
# 安全)スマートハンド:マルチカメラフレームワークを用いた手の動き分析と注意散逸警告

(Safe) SMART Hands: Hand Activity Analysis and Distraction Alerts Using a Multi-Camera Framework ( http://arxiv.org/abs/2301.05838v1 )

ライセンス: Link先を確認
Ross Greer, Lulua Rakla, Anish Gopalan, Mohan Trivedi(参考訳) 手動(手動)の活動は、運転中のクラッシュリスクの重要な原因である。 したがって、運転者の車両の制御能力を理解する上で、手の位置と手の動きの占有状況の分析は有用な要素である。 カメラによる視覚センシングは、手を観察する受動的手段を提供するが、その効果はカメラの位置によって異なる。 機械学習を用いたカメラビューのアンサンブルを用いた手作業分類のためのアルゴリズムフレームワークSMART Handsを導入する。 本研究では,このフレームワークの有効性を4カメラ構成で示し,ドライバの両手の様々な位置と保持対象の分類精度を98%まで向上させた。 このマルチカメラ・フレームワークは、視線やポーズ分析などのタスクに拡張可能であり、運転者や乗客の安全にさらなる応用が期待できる。

Manual (hand-related) activity is a significant source of crash risk while driving. Accordingly, analysis of hand position and hand activity occupation is a useful component to understanding a driver's readiness to take control of a vehicle. Visual sensing through cameras provides a passive means of observing the hands, but its effectiveness varies depending on camera location. We introduce an algorithmic framework, SMART Hands, for accurate hand classification with an ensemble of camera views using machine learning. We illustrate the effectiveness of this framework in a 4-camera setup, reaching 98% classification accuracy on a variety of locations and held objects for both of the driver's hands. We conclude that this multi-camera framework can be extended to additional tasks such as gaze and pose analysis, with further applications in driver and passenger safety.
翻訳日:2023-01-18 18:44:37 公開日:2023-01-14
# 共振同期逆工学による縦方向可変デチューンを有する非線形導波路カプラの断熱光伝搬

Adiabatic light propagation in nonlinear waveguide couplers with longitudinally varying detunings via resonance-locked inverse engineering ( http://arxiv.org/abs/2301.05836v1 )

ライセンス: Link先を確認
Fu-Quan Dou, Ya-Ting Wei, Zhi-Ming Yan(参考訳) 非線形導波路結合器における光の断熱的進化について,刺激ラマン断熱通路(stirap)に基づく共鳴同期逆工学を用いて検討した。 伝搬係数の縦方向の変動は非線形効果を動的に排除し、非断熱振動を誘発するように設計されている。 非線形状態においても, 完全な光伝達, 光分割, 光の帰還といった異なる光の進化が, 適切な設計選択と相反して実現可能であることを示す。 この特徴は、統合光学において高い忠実度を持つ全光学非線形デバイスを実現する新しい機会を開く。

We investigate the adiabatic evolution of light in nonlinear waveguide couplers via resonance-locked inverse engineering based on stimulated Raman adiabatic passage (STIRAP). The longitudinal varying detunings of the propagation coefficients are designed to eliminate dynamically the nonlinear effect, which induce the non-adiabatic oscillations. We show that different light evolutions such as complete light transfer, light split and light return can be realized adiabatically with appropriate choices of the detunings even in the nonlinear regime. The features open new opportunities for the realization of all-optical nonlinear devices with high fidelity in integrated optics.
翻訳日:2023-01-18 18:44:24 公開日:2023-01-14
# 認知・発達ロボティクスのための世界モデルと予測符号化:フロンティアと課題

World Models and Predictive Coding for Cognitive and Developmental Robotics: Frontiers and Challenges ( http://arxiv.org/abs/2301.05832v1 )

ライセンス: Link先を確認
Tadahiro Taniguchi, Shingo Murata, Masahiro Suzuki, Dimitri Ognibene, Pablo Lanillos, Emre Ugur, Lorenzo Jamone, Tomoaki Nakamura, Alejandra Ciria, Bruno Lara, and Giovanni Pezzulo(参考訳) 環境を積極的に探索し、知識を得、スキルを継続的に習得できる自律ロボットを作ることは、認知・発達ロボット工学において想定される究極の成果である。 彼らの学習プロセスは、人間の学習と認知発達の方法で、彼らの身体的および社会的世界との相互作用に基づいているべきである。 本稿では,この文脈に基づいて,世界モデルと予測符号化の2つの概念に焦点を当てる。 近年、人工知能への関心が高まり、世界モデルは新たな注目を集めている。 認知システムは世界モデルを学び、将来の感覚観測をより正確に予測し、そのポリシーを最適化する。 あるいは神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。 いずれのアイデアも、継続的あるいは生涯学習が可能なロボットと人間の認知発達の基盤とみなすことができる。 認知ロボティクスと神経ロボティクスの予測コーディングに関する研究は数多く行われているが、aiの世界モデルに基づくアプローチとロボティクスの予測コーディングとの関係についてはほとんど議論されていない。 そこで本稿では,これらのトピックに関する現在の研究の定義,関係,状況,及び世界のモデルや予測符号化の欠如を,認知・発達ロボティクスの文脈における自由エネルギー原理や能動的推論といった重要な概念と合わせて明らかにする。 さらに,AIとロボティクスのさらなる統合に向けた世界モデルと予測コーディングに関わるフロンティアと課題を概説するとともに,将来的な認知・発達能力を持ったロボットの開発について述べる。

Creating autonomous robots that can actively explore the environment, acquire knowledge and learn skills continuously is the ultimate achievement envisioned in cognitive and developmental robotics. Their learning processes should be based on interactions with their physical and social world in the manner of human learning and cognitive development. Based on this context, in this paper, we focus on the two concepts of world models and predictive coding. Recently, world models have attracted renewed attention as a topic of considerable interest in artificial intelligence. Cognitive systems learn world models to better predict future sensory observations and optimize their policies, i.e., controllers. Alternatively, in neuroscience, predictive coding proposes that the brain continuously predicts its inputs and adapts to model its own dynamics and control behavior in its environment. Both ideas may be considered as underpinning the cognitive development of robots and humans capable of continual or lifelong learning. Although many studies have been conducted on predictive coding in cognitive robotics and neurorobotics, the relationship between world model-based approaches in AI and predictive coding in robotics has rarely been discussed. Therefore, in this paper, we clarify the definitions, relationships, and status of current research on these topics, as well as missing pieces of world models and predictive coding in conjunction with crucially related concepts such as the free-energy principle and active inference in the context of cognitive and developmental robotics. Furthermore, we outline the frontiers and challenges involved in world models and predictive coding toward the further integration of AI and robotics, as well as the creation of robots with real cognitive and developmental capabilities in the future.
翻訳日:2023-01-18 18:44:16 公開日:2023-01-14
# 変圧器ネットワークを用いた生成設計による2次元材料の発見

Discovery of 2D materials using Transformer Network based Generative Design ( http://arxiv.org/abs/2301.05824v1 )

ライセンス: Link先を確認
Rongzhi Dong, Yuqi Song, Edirisuriya M. D. Siriwardane, Jianjun Hu(参考訳) 2次元(2D)材料は超伝導体、量子、およびトポロジカル材料に広く応用されている。 しかし、その合理的な設計は定まっておらず、現在6000以下の実験的な2d材料が報告されている。 近年、深層学習、データマイニング、密度汎関数理論(dft)に基づく高スループット計算が広く行われ、多様な応用のための潜在的な新しい材料が発見されている。 本稿では, 物質トランスジェネレータ (MTG) を用いて, 仮説2次元材料を大規模に発見するための生成材料設計パイプラインを提案する。 トランスフォーマーに基づく自己学習型ニューラルネットワークモデルを用いた2次元材料合成生成器の訓練を行った。 これらのモデルは、結晶構造予測のために既知の2d材料テンプレートに供給される多数の候補2d合成を生成するために使用される。 次に, DFT計算を行い, その熱力学的安定性について検討した。 我々は,NiCl$_4$,IrSBr,CuBr$_3$,CoBrClの4つの新しいDFT認定安定2D材料について報告する。 本研究は, MTG 生成材料設計パイプラインが新規な2次元材料および他の機能性材料を発見できる可能性を示すものである。

Two-dimensional (2D) materials have wide applications in superconductors, quantum, and topological materials. However, their rational design is not well established, and currently less than 6,000 experimentally synthesized 2D materials have been reported. Recently, deep learning, data-mining, and density functional theory (DFT)-based high-throughput calculations are widely performed to discover potential new materials for diverse applications. Here we propose a generative material design pipeline, namely material transformer generator(MTG), for large-scale discovery of hypothetical 2D materials. We train two 2D materials composition generators using self-learning neural language models based on Transformers with and without transfer learning. The models are then used to generate a large number of candidate 2D compositions, which are fed to known 2D materials templates for crystal structure prediction. Next, we performed DFT computations to study their thermodynamic stability based on energy-above-hull and formation energy. We report four new DFT-verified stable 2D materials with zero e-above-hull energies, including NiCl$_4$, IrSBr, CuBr$_3$, and CoBrCl. Our work thus demonstrates the potential of our MTG generative materials design pipeline in the discovery of novel 2D materials and other functional materials.
翻訳日:2023-01-18 18:43:49 公開日:2023-01-14
# 物理・仮想グラフ再構成のための再構成可能なデータグローブ

Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps ( http://arxiv.org/abs/2301.05821v1 )

ライセンス: Link先を確認
Hangxin Liu, Zeyu Zhang, Ziyuan Jiao, Zhenliang Zhang, Minchen Li, Chenfanfu Jiang, Yixin Zhu, Song-Chun Zhu(参考訳) 我々は、人間の手-物体相互作用の様々なモードをキャプチャする再構成可能なデータグローブの設計を提案する。 ハンドジェスチャをリアルタイムに再構築する統一されたバックボーンデザインを共有することで、再構成可能なデータグローブは3つのモードで動作し、異なる特徴を持つ下流タスクを処理します。 触覚モードでは、グローブシステムは柔らかくて薄いピエゾ抵抗性材料から作られたカスタマイズされた力センサを介して操作力を集約する。 仮想現実感(VR)モードは、物理的に妥当な方法でリアルタイムのインタラクションを可能にし、衝突イベントを検出して安定した把握を決定するためにケージベースのアプローチが考案された。 現状の有限要素法(FEM)シミュレータを利用することで、シミュレーションモードは3次元空間における手と物体の動きと物体の物理的特性(例えば、応力、エネルギー)が時間的操作に合わせてどのように変化するかという、きめ細かい4D操作イベントを収集する。 このグローブシステムは、高忠実度シミュレーションを通じて、操作動作の背後にある観測不可能な物理的および因果的要因を初めて調べる。 一連の実験において、個々のセンサーとシステム全体の観点からデータグローブを特徴付ける。 具体的には,システムの3つのモードを評価する。 (i)手振りと関連力の記録 (ii)vrにおける操作性の向上、及び (iii)各種工具の現実的なシミュレーション効果をそれぞれ生成する。 再構成可能なデータグローブは、物理環境と仮想環境の両方で、きめ細かい人間の把握データを収集し、再構成し、具体化されたaiエージェントの操作スキルを学習する新しい道を開きます。

We present a reconfigurable data glove design to capture different modes of human hand-object interactions, critical for training embodied AI agents for fine manipulation tasks. Sharing a unified backbone design that reconstructs hand gestures in real-time, our reconfigurable data glove operates in three modes for various downstream tasks with distinct features. In the tactile-sensing mode, the glove system aggregates manipulation force via customized force sensors made from a soft and thin piezoresistive material; this design is to minimize interference during complex hand movements. The Virtual Reality (VR) mode enables real-time interaction in a physically plausible fashion; a caging-based approach is devised to determine stable grasps by detecting collision events. Leveraging a state-of-the-art Finite Element Method (FEM) simulator, the simulation mode collects a fine-grained 4D manipulation event: hand and object motions in 3D space and how the object's physical properties (e.g., stress, energy) change in accord with the manipulation in time. Of note, this glove system is the first to look into, through high-fidelity simulation, the unobservable physical and causal factors behind manipulation actions. In a series of experiments, we characterize our data glove in terms of individual sensors and the overall system. Specifically, we evaluate the system's three modes by (i) recording hand gestures and associated forces, (ii) improving manipulation fluency in VR, and (iii) producing realistic simulation effects of various tool uses, respectively. Together, our reconfigurable data glove collects and reconstructs fine-grained human grasp data in both the physical and virtual environments, opening up new avenues to learning manipulation skills for embodied AI agents.
翻訳日:2023-01-18 18:43:27 公開日:2023-01-14
# 超伝導量子ビットに結合したマイクロ波空洞を用いたマグノンの量子絡み合い生成

Quantum entanglement generation on magnons assisted with microwave cavities coupled to a superconducting qubit ( http://arxiv.org/abs/2301.05820v1 )

ライセンス: Link先を確認
Jiu-Ming Li, Shao-Ming Fei(参考訳) 本稿では,イットリウム鉄ガーネット(YIG)球,マイクロ波キャビティ,超伝導(SC)量子ビットからなるハイブリッドシステムにおいて,非局所マグノンの量子絡み合いを生成するプロトコルを提案する。 これらのスキームでは、YIGは共振方式で各マイクロ波空洞に結合され、SC量子ビットは空洞の中心に配置され、同時に空洞と相互作用する。 仮想光子を交換することで、キャビティは間接的に遠距離で相互作用することができる。 詳細なプロトコルは2、3および任意の$N$マグノンの絡み合いを確立するために提示される。

We present protocols to generate quantum entanglement on nonlocal magnons in hybrid systems composed of yttrium iron garnet (YIG) spheres, microwave cavities and a superconducting (SC) qubit. In the schemes, the YIGs are coupled to respective microwave cavities in resonant way, and the SC qubit is placed at the center of the cavities, which interacts with the cavities simultaneously. By exchanging the virtual photon, the cavities can indirectly interact in the far-detuning regime. Detailed protocols are presented to establish entanglement for two, three and arbitrary $N$ magnons with reasonable fidelities.
翻訳日:2023-01-18 18:42:56 公開日:2023-01-14
# 生物学的特徴を用いたディープフェイク検出:調査

Deepfake Detection using Biological Features: A Survey ( http://arxiv.org/abs/2301.05819v1 )

ライセンス: Link先を確認
Kundan Patil, Shrushti Kale, Jaivanti Dhokey, Abhishek Gulhane(参考訳) Deepfakeは、画像やビデオの変更や修正を容易にするディープラーニングベースのテクニックだ。 調査や法廷では、視覚的な証拠が一般的に用いられるが、ディープフェイクの技術的進歩により、これらの証拠が疑われることがある。 ディープフェイクは個人を脅迫し、テロ攻撃を計画し、偽情報を広め、個人を非難し、政治的混乱を防いだ。 本研究は, ディープフェイクの歴史, その発達と検出, および, 視線認識, 点眼検出, 眼球運動検出, 耳と口の検知, 心拍検出などの生理学的測定に基づく課題について述べる。 この研究はまた、この分野のスコープを提案し、異なる生物学的特徴とその分類器を比較した。 deepfakesはgenerative adversarial network (gans)モデルを使用して作成され、かつては目に見えるアーティファクトのために人間が容易に検出できた。 しかし、技術が進歩するにつれて、ディープフェイクは自然画像と区別しにくくなり、検出方法の見直しが重要である。

Deepfake is a deep learning-based technique that makes it easy to change or modify images and videos. In investigations and court, visual evidence is commonly employed, but these pieces of evidence may now be suspect due to technological advancements in deepfake. Deepfakes have been used to blackmail individuals, plan terrorist attacks, disseminate false information, defame individuals, and foment political turmoil. This study describes the history of deepfake, its development and detection, and the challenges based on physiological measurements such as eyebrow recognition, eye blinking detection, eye movement detection, ear and mouth detection, and heartbeat detection. The study also proposes a scope in this field and compares the different biological features and their classifiers. Deepfakes are created using the generative adversarial network (GANs) model, and were once easy to detect by humans due to visible artifacts. However, as technology has advanced, deepfakes have become highly indistinguishable from natural images, making it important to review detection methods.
翻訳日:2023-01-18 18:42:44 公開日:2023-01-14
# 座標系mlpのスペクトルバイアスの評価

Evaluating the Spectral Bias of Coordinate Based MLPs ( http://arxiv.org/abs/2301.05816v1 )

ライセンス: Link先を確認
John Lazzari, Xiuwen Liu(参考訳) 近年、完全連結ニューラルネットワークによって与えられる表現は、密集した低次元の設定で、シーン、オブジェクト、その他の測定値を表現することが示されている。 これらのモデルでは、座標ベースMLPと呼ばれる正弦波符号化がターゲット関数の高周波成分に収束するために必要である。 この要件は、濃密で低次元の座標に基づく入力を用いた場合の、厳密なスペクトルバイアスの結果である。 前回の研究では、ニューラル・タンジェント・カーネル(ntk)とフーリエ解析を用いてこの現象を説明した。 これらの手法は、この大きなスペクトルバイアスと位置符号化の利点に対する洞察を与えるが、この振る舞いを誘導するreluネットワークの特性は完全には決定されない。 スペクトルバイアスを直接ReLUネットワークの計算を通して分析することは、その制限を密集した設定で明らかにし、学習プロセス中にこの振る舞いがどのように現れるかを明確に説明する。 本稿では,座標に基づくMLPのスペクトルバイアスを,その活性化領域と勾配勾配ダイナミクスを用いて系統的に解析する。 これにより、ネットワークの表現能力は、異なる周波数の成分に対して勾配降下が収束する速度と、データの密度がモデルをさらに制限する速度とを関連付けることができる。

In recent years, representations given by fully connected neural networks have shown to represent scenes, objects, and other measurements well in dense low-dimensional settings. For these models, termed coordinate based MLPs, sinusoidal encodings are necessary in allowing for convergence to the high frequency components of the target function. This requirement is a result of their severe spectral bias when using dense, low dimensional coordinate based inputs. Previous work explained this phenomena using Neural Tangent Kernel (NTK) and Fourier analysis. While these methods provide insight towards this large spectral bias and the benefits of positional encoding, the properties of ReLU networks that induce this behavior are not fully determined. Analyzing spectral bias directly through the computations of ReLU networks would expose their limitations in dense settings, while providing a clearer explanation as to how this behavior emerges during the learning process. In this paper, we systematically analyze the spectral bias of a coordinate based MLP through its activation regions and gradient descent dynamics. This allows us to relate the network's expressive capacity to the speed at which gradient descent converges for components of varying frequency, and how the density of the data further restricts the model.
翻訳日:2023-01-18 18:42:24 公開日:2023-01-14
# ニューラルネットワークコンペティション(vnn-comp)の国際検証の最初の3年間

First Three Years of the International Verification of Neural Networks Competition (VNN-COMP) ( http://arxiv.org/abs/2301.05815v1 )

ライセンス: Link先を確認
Christopher Brix, Mark Niklas M\"uller, Stanley Bak, Taylor T. Johnson, Changliu Liu(参考訳) 本稿では,2020年,2021年,2022年に開催された国際ニューラルネットワークコンペティション(VNN-COMP)の最初の3回を要約し,メタ分析する。 VNN-COMPでは、参加者が入力出力動作を記述する仕様を満たすニューラルネットワークを解析するソフトウェアツールを提出する。 これらのニューラルネットワークと仕様は、画像分類、ニューラルコントロール、強化学習、自律システムにおける安全性と堅牢性特性に対応する、さまざまな問題クラスとタスクをカバーする。 我々は,過去3年間に観測された主要なプロセス,ルール,結果,現在の動向を要約し,今後の展開を展望する。

This paper presents a summary and meta-analysis of the first three iterations of the annual International Verification of Neural Networks Competition (VNN-COMP) held in 2020, 2021, and 2022. In the VNN-COMP, participants submit software tools that analyze whether given neural networks satisfy specifications describing their input-output behavior. These neural networks and specifications cover a variety of problem classes and tasks, corresponding to safety and robustness properties in image classification, neural control, reinforcement learning, and autonomous systems. We summarize the key processes, rules, and results, present trends observed over the last three years, and provide an outlook into possible future developments.
翻訳日:2023-01-18 18:42:06 公開日:2023-01-14
# 誰が信頼すべきか - AIか、自分自身か? AIによる意思決定における適切な信頼を促進するために人間とAIの正しさを活用する

Who Should I Trust: AI or Myself? Leveraging Human and AI Correctness Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making ( http://arxiv.org/abs/2301.05809v1 )

ライセンス: Link先を確認
Shuai Ma, Ying Lei, Xinru Wang, Chengbo Zheng, Chuhan Shi, Ming Yin, Xiaojuan Ma(参考訳) AIによる意思決定では、人間の意思決定者がいつAIを信頼するか、いつ自分自身を信頼するかを知ることが重要である。 しかし、以前の研究では、AIの正当性(CL)を示すAIの信頼性のみに基づいて、人間の信頼を校正した。 このギャップを緩和するために,タスク・インスタンスレベルで両面のCLに基づいて,人間の適切な信頼を促進することを提案した。 まず、意思決定モデルを近似し、同様の事例で潜在的な性能を計算し、人間のCLをモデル化した。 2つの予備研究により,本モデルの有効性と有効性を示した。 そこで我々は,AIによる意思決定プロセスにおいて,ユーザの信頼を明確かつシンプルに調整するための3つのCL活用戦略を提案した。 対象間の実験(N=293)の結果、私たちのCL活用戦略はAIの信頼性のみを使用するよりも、AIに対する適切な人間信頼を促進した。 我々はさらに、より人間互換のAI支援意思決定に実践的な意味を提供した。

In AI-assisted decision-making, it is critical for human decision-makers to know when to trust AI and when to trust themselves. However, prior studies calibrated human trust only based on AI confidence indicating AI's correctness likelihood (CL) but ignored humans' CL, hindering optimal team decision-making. To mitigate this gap, we proposed to promote humans' appropriate trust based on the CL of both sides at a task-instance level. We first modeled humans' CL by approximating their decision-making models and computing their potential performance in similar instances. We demonstrated the feasibility and effectiveness of our model via two preliminary studies. Then, we proposed three CL exploitation strategies to calibrate users' trust explicitly/implicitly in the AI-assisted decision-making process. Results from a between-subjects experiment (N=293) showed that our CL exploitation strategies promoted more appropriate human trust in AI, compared with only using AI confidence. We further provided practical implications for more human-compatible AI-assisted decision-making.
翻訳日:2023-01-18 18:41:55 公開日:2023-01-14
# 多視点投票とエントロピーランキングを用いたロバストリモートセンシングシーン分類

Robust Remote Sensing Scene Classification with Multi-View Voting and Entropy Ranking ( http://arxiv.org/abs/2301.05858v1 )

ライセンス: Link先を確認
Jinyang Wang, Tao Wang, Min Gan, George Hadjichristofi(参考訳) 深部畳み込みニューラルネットワークは、リモートセンシング画像のシーン分類に広く用いられている。 本研究では,画像の部分的誤分類に対して安全な課題に対する頑健な学習手法を提案する。 具体的には,反復的多視点投票とエントロピーランキングによってラベルの誤りを段階的に除去し,訂正する。 各時間ステップで、トレーニングデータを、トレーニングと投票の別々の部分に分割します。 投票の一致性はラベルの正確性を明らかにするので、満場一致の投票で画像だけを使って強力なモデルをトレーニングできます。 また,予測の不確実性に対する有効な尺度としてエントロピーを採用し,ランク付けと選択によってラベル誤りを部分的に復元する。 WHU-RS19データセットとAIDデータセットにおいて提案手法の優位性を実証的に示す。

Deep convolutional neural networks have been widely used in scene classification of remotely sensed images. In this work, we propose a robust learning method for the task that is secure against partially incorrect categorization of images. Specifically, we remove and correct errors in the labels progressively by iterative multi-view voting and entropy ranking. At each time step, we first divide the training data into disjoint parts for separate training and voting. The unanimity in the voting reveals the correctness of the labels, so that we can train a strong model with only the images with unanimous votes. In addition, we adopt entropy as an effective measure for prediction uncertainty, in order to partially recover labeling errors by ranking and selection. We empirically demonstrate the superiority of the proposed method on the WHU-RS19 dataset and the AID dataset.
翻訳日:2023-01-18 18:35:17 公開日:2023-01-14
# EARL:リモートセンシング画像におけるオブジェクト指向物体検出のための適応回転ラベルアサインメントを用いた楕円分布支援

EARL: An Elliptical Distribution aided Adaptive Rotation Label Assignment for Oriented Object Detection in Remote Sensing Images ( http://arxiv.org/abs/2301.05856v1 )

ライセンス: Link先を確認
Jian Guan, Mingjie Xie, Youtian Lin, Guangjun He, Pengming Feng(参考訳) ラベル割り当ては、トレーニングプロセス中に正または負のサンプルを決定するために、最近の畳み込みニューラルネットワーク(CNN)ベースの検出器でしばしば使用される。 しかし,現在のラベル割当戦略では,方向やアスペクト比,スケールのばらつきが大きいなど,リモートセンシング画像のターゲット特性をほとんど考慮していないため,サンプリングが不十分である。 本稿では, 適応回転ラベルアサインメント (EARL) を用いて, 配向検出器の品質の高い正の試料を選別し, 良好な性能が得られることを示す。 具体的には,過度なスケールのターゲットの適切なサンプリングを避けるために,ターゲットのスケールに応じて異なる特徴レベルのサンプルを動的に選択する適応型スケールサンプリング(ADS)戦略を提案する。 ADSを強化するために、動的楕円分布(DED)に従って正のサンプルが選択され、ターゲットの配向と形状特性をさらに活用することができる。 さらに,低品質試料による検出性能への影響を軽減するため,空間距離重み付け(SDW)モジュールを導入する。 DOTAやHRSC2016のような一般的なリモートセンシングデータセットに対する大規模な実験は、ベルやホイッスルがなければ、単純な構造と統合することで、DOTAデータセット上のmAPの72.87を達成でき、現在の最先端のアンカーフリー検出器より優れ、アンカーベース手法と同等のパフォーマンスを提供する。 ソースコードはhttps://github.com/Justlovesmile/EARLで入手できる。

Label assignment is often employed in recent convolutional neural network (CNN) based detectors to determine positive or negative samples during training process. However, we note that current label assignment strategies barely consider the characteristics of targets in remote sensing images thoroughly, such as large variations in orientations, aspect ratios and scales, which lead to insufficient sampling. In this paper, an Elliptical Distribution aided Adaptive Rotation Label Assignment (EARL) is proposed to select positive samples with higher quality in orientation detectors, and yields better performance. Concretely, to avoid inadequate sampling of targets with extreme scales, an adaptive scale sampling (ADS) strategy is proposed to dynamically select samples on different feature levels according to the scales of targets. To enhance ADS, positive samples are selected following a dynamic elliptical distribution (DED), which can further exploit the orientation and shape properties of targets. Moreover, a spatial distance weighting (SDW) module is introduced to mitigate the influence from low-quality samples on detection performance. Extensive experiments on popular remote sensing datasets, such as DOTA and HRSC2016, demonstrate the effectiveness and the superiority of our proposed EARL, where without bells and whistles, it achieves 72.87 of mAP on DOTA dataset by being integrated with simple structure, which outperforms current state-of-the-art anchor-free detectors and provides comparable performance as anchor-based methods. The source code will be available at https://github.com/Justlovesmile/EARL
翻訳日:2023-01-18 18:35:07 公開日:2023-01-14
# サブms時間分解能を持つ量子ダイヤモンド顕微鏡

Quantum diamond microscopy with sub-ms temporal resolution ( http://arxiv.org/abs/2301.05853v1 )

ライセンス: Link先を確認
Sangwon Oh, Seong-Joo Lee, Jeong Hyun Shim, Nam Woong Song, Truong Thi Hien(参考訳) ロックイン検出を用いた量子ダイヤモンド磁気センサは、神経細胞、生きた哺乳類の筋肉、生きたマウスの心臓から弱い生体磁場を検出できた。 これにより、生体磁場の顕微鏡分布を可視化する量子ダイヤモンド磁気センサの可能性が開ける。 ここでは,ロックイン型ワイドフィールド量子ダイヤモンド顕微鏡を用いて,43.9$\mathrm{nT\cdot\mu m^{1.5}/Hz^{0.5}}$の平均体積正規化を実現する。 ダイヤモンドの<001$>$方向に沿って超微細な駆動と磁場アライメントを持つ二重共鳴を実装することで感度を得る。 さらに、量子ダイヤモンド顕微鏡を用いて、サブms時間分解能($0.4ms)を1ピクセルあたり数十ナノテスラの感度でマイクロスケールで達成できることを実証した。 このロックインベースのダイヤモンド量子顕微鏡は、マイクロメートル空間分解能のニューロンネットワークにおける機能活性のマッピングの一歩となるかもしれない。

Quantum diamond magnetometers using lock-in detection have successfully detected weak bio-magnetic fields from neurons, a live mammalian muscle, and a live mouse heart. This opens up the possibility of quantum diamond magnetometers visualizing microscopic distributions of the bio-magnetic fields. Here, we demonstrate a lock-in-based wide-field quantum diamond microscopy, achieving a mean volume-normalized per pixel sensitivity of 43.9 $\mathrm{nT\cdot\mu m^{1.5}/Hz^{0.5}}$. We obtain the sensitivity by implementing a double resonance with hyperfine driving and magnetic field alignment along the $<$001$>$ orientation of the diamond. Additionally, we have demonstrated that sub-ms temporal resolution ($\sim$ 0.4 ms) can be achieved at a micrometer scale with tens of nanotesla per-pixel sensitivity using quantum diamond microscopy. This lock-in-based diamond quantum microscopy could be a step forward in mapping functional activity in neuronal networks in micrometer spatial resolution.
翻訳日:2023-01-18 18:34:38 公開日:2023-01-14
# CrysGNN : 結晶材料の特性予測を強化するための事前学習知識の蒸留

CrysGNN : Distilling pre-trained knowledge to enhance property prediction for crystalline materials ( http://arxiv.org/abs/2301.05852v1 )

ライセンス: Link先を確認
Kishalay Das, Bidisha Samanta, Pawan Goyal, Seung-Cheol Lee, Satadeep Bhattacharjee and Niloy Ganguly(参考訳) 近年、グラフニューラルネットワーク(GNN)に基づくアプローチは、リッチ表現空間における結晶材料の複雑な位相構造をエンコードする強力な手法として出現している。 これらのモデルは自然に管理され、特性固有のトレーニングデータを使用し、結晶構造と形成エネルギー、バンドギャップ、バルク率などの異なる性質の関係を学ぶ。 これらのメソッドのほとんどは、異なるプロパティで利用できないかもしれないシステムをトレーニングするために、大量のプロパティタグ付きデータを必要とします。 しかし、その化学組成と構造結合で大量の結晶データが得られる。 このような未処理データを活用するために,本論文では,結晶のノードレベルおよびグラフレベルの構造情報を,大量の非ラベル材料データを用いてキャプチャする,結晶材料の事前学習型gnnフレームワークであるcrysgnnを提案する。 さらに,CrysGNNから抽出した知識を抽出し,その特性予測精度を高めるために,美術特性予測器の異なる状態に注入する。 我々は、事前訓練されたモデルから知識を抽出することで、全てのSOTAアルゴリズムがベニラバージョンを良好なマージンで上回ることができることを示す広範な実験を行った。 また, 蒸留プロセスは, 従来の訓練済みモデルを微調整する手法に比べて, 大幅な改善が期待できる。 事前学習したモデルを800kクリスタルグラフの大きなデータセットと共にリリースし、事前学習したモデルを既存のモデルや今後のモデルにプラグインして、予測精度を高めることができます。

In recent years, graph neural network (GNN) based approaches have emerged as a powerful technique to encode complex topological structure of crystal materials in an enriched representation space. These models are often supervised in nature and using the property-specific training data, learn relationship between crystal structure and different properties like formation energy, bandgap, bulk modulus, etc. Most of these methods require a huge amount of property-tagged data to train the system which may not be available for different properties. However, there is an availability of a huge amount of crystal data with its chemical composition and structural bonds. To leverage these untapped data, this paper presents CrysGNN, a new pre-trained GNN framework for crystalline materials, which captures both node and graph level structural information of crystal graphs using a huge amount of unlabelled material data. Further, we extract distilled knowledge from CrysGNN and inject into different state of the art property predictors to enhance their property prediction accuracy. We conduct extensive experiments to show that with distilled knowledge from the pre-trained model, all the SOTA algorithms are able to outperform their own vanilla version with good margins. We also observe that the distillation process provides a significant improvement over the conventional approach of finetuning the pre-trained model. We have released the pre-trained model along with the large dataset of 800K crystal graph which we carefully curated; so that the pretrained model can be plugged into any existing and upcoming models to enhance their prediction accuracy.
翻訳日:2023-01-18 18:34:20 公開日:2023-01-14
# フェデレーションエッジ学習における知識蒸留に関する調査

Survey of Knowledge Distillation in Federated Edge Learning ( http://arxiv.org/abs/2301.05849v1 )

ライセンス: Link先を確認
Zhiyuan Wu, Sheng Sun, Yuwei Wang, Min Liu, Xuefeng Jiang, Runhan Li(参考訳) モバイルとモノのインターネット(IoT)デバイスのインテリジェントなサービスとプライバシ保護の需要の増加は、デバイスがプライベートデータを共有せずにデバイス上で機械学習(ML)モデルを協調訓練するFEL(Federated Edge Learning)の広範な応用を動機付けている。 \textcolor{black}{limited by device hardware, various user behaviors and network infrastructure, the algorithm design of fel faces issues related resources, personalization and network environment}, and knowledge distillation (kd)は、felにおける上記の課題に取り組む重要な技術として活用されている。 本稿では,KD が FEL に適用した作業について検討し,既存の KD ベースの FEL アプローチの限界とオープンな問題について議論し,実際の展開のガイダンスを提供する。

The increasing demand for intelligent services and privacy protection of mobile and Internet of Things (IoT) devices motivates the wide application of Federated Edge Learning (FEL), in which devices collaboratively train on-device Machine Learning (ML) models without sharing their private data. \textcolor{black}{Limited by device hardware, diverse user behaviors and network infrastructure, the algorithm design of FEL faces challenges related to resources, personalization and network environments}, and Knowledge Distillation (KD) has been leveraged as an important technique to tackle the above challenges in FEL. In this paper, we investigate the works that KD applies to FEL, discuss the limitations and open problems of existing KD-based FEL approaches, and provide guidance for their real deployment.
翻訳日:2023-01-18 18:33:56 公開日:2023-01-14
# ${S}^{2}$Net:球面上の正確なパノラマ深さ推定

${S}^{2}$Net: Accurate Panorama Depth Estimation on Spherical Surface ( http://arxiv.org/abs/2301.05845v1 )

ライセンス: Link先を確認
Meng Li, Senbo Wang, Weihao Yuan, Weichao Shen, Zhe Sheng and Zilong Dong(参考訳) 単分子深度推定は曖昧な問題であるため、現在のデータ駆動単視点深度推定法において、グローバルな構造的手がかりが重要な役割を果たす。 パノラマ画像は、大きな歪みをもたらす等角射影を用いて周囲の完全な空間情報をキャプチャする。 これにより、歪みを処理し、画像からグローバルなコンテキスト情報を抽出できる深さ推定法が必要となる。 本稿では,単球面上の単分子パノラマ深度推定のためのエンドツーエンドのディープネットワークを提案する。 具体的には, 等角像から抽出した特徴マップを, 一様分散グリッドでサンプリングした単位球面上に投影し, デコーダネットワークが歪み低減した特徴マップから情報を集約する。 一方,機能マップをスキップ接続から解き放ち,グローバルコンテキストの獲得能力を高めるために,グローバルなクロスアテンションベースの融合モジュールを提案する。 5つのパノラマ深度推定データセットを用いて実験を行い,提案手法が従来手法より大幅に優れていたことを示す。 関連するコードはすべて,今後数日でオープンソース化される予定だ。

Monocular depth estimation is an ambiguous problem, thus global structural cues play an important role in current data-driven single-view depth estimation methods. Panorama images capture the complete spatial information of their surroundings utilizing the equirectangular projection which introduces large distortion. This requires the depth estimation method to be able to handle the distortion and extract global context information from the image. In this paper, we propose an end-to-end deep network for monocular panorama depth estimation on a unit spherical surface. Specifically, we project the feature maps extracted from equirectangular images onto unit spherical surface sampled by uniformly distributed grids, where the decoder network can aggregate the information from the distortion-reduced feature maps. Meanwhile, we propose a global cross-attention-based fusion module to fuse the feature maps from skip connection and enhance the ability to obtain global context. Experiments are conducted on five panorama depth estimation datasets, and the results demonstrate that the proposed method substantially outperforms previous state-of-the-art methods. All related codes will be open-sourced in the upcoming days.
翻訳日:2023-01-18 18:33:40 公開日:2023-01-14
# 2次元テンソルネットワークのためのブロック信念伝搬アルゴリズム

Block Belief Propagation Algorithm for 2D Tensor Networks ( http://arxiv.org/abs/2301.05844v1 )

ライセンス: Link先を確認
Chu Guo, Dario Poletti, Itai Arad(参考訳) 信念伝播は複素ネットワーク上の多変量確率分布の局所辺を近似するよく研究されたアルゴリズムであり、テンソルネットワーク状態は量子および古典多体問題の強力なツールである。 本研究では, 2次元テンソルネットワークを縮小し, 2d$システムの基底状態の近似を行うブロック信念伝播アルゴリズムを提案する。 私たちの方法の利点は3倍です。 1) 同じアルゴリズムは有限系と無限系の両方に作用する。 2) 自然かつ効率的な並列化を可能にする。 3) 柔軟性を考えると、異なるユニットセルを扱うことができる。 応用として,我々は2d$ハイゼンベルクおよび横イジングモデルの研究にアルゴリズムを用い,その精度が最先端の結果に匹敵することを示した。

Belief propagation is a well-studied algorithm for approximating local marginals of multivariate probability distribution over complex networks, while tensor network states are powerful tools for quantum and classical many-body problems. Building on a recent connection between the belief propagation algorithm and the problem of tensor network contraction, we propose a block belief propagation algorithm for contracting two-dimensional tensor networks and approximating the ground state of $2D$ systems. The advantages of our method are three-fold: 1) the same algorithm works for both finite and infinite systems; 2) it allows natural and efficient parallelization; 3) given its flexibility it would allow to deal with different unit cells. As applications, we use our algorithm to study the $2D$ Heisenberg and transverse Ising models, and show that the accuracy of the method is comparable to state-of-the-art results.
翻訳日:2023-01-18 18:33:22 公開日:2023-01-14
# ユーザの自己報告データ収集にチャットボットを活用するための大規模言語モデル

Leveraging Large Language Models to Power Chatbots for Collecting User Self-Reported Data ( http://arxiv.org/abs/2301.05843v1 )

ライセンス: Link先を確認
Jing Wei, Sungdong Kim, Hyunhoon Jung, Young-Ho Kim(参考訳) 大きな言語モデル(LLM)は、自然言語のプロンプトを受け入れてチャットボットを構築する新しい方法を提供する。 しかし、ユーザーからの自己報告データ収集など、特定の目標を追求しながら自然主義的な会話を行うためにチャットボットをパワーアップするためのプロンプトをどのように設計するかは不明だ。 我々は,チャットボットが自然に会話し,データを確実に収集する上で,プロンプトの設計要因について検討する。 この目的のために、異なる構造とペルソナを持つ4つのプロンプトデザインを定式化した。 参加者が異なるデザインのプロンプトによって駆動されるチャットボットと会話するオンライン研究(n = 48)を通じて,プロンプトデザインと会話トピックがチャットボットの会話フローやユーザの認識にどのように影響するかを検討した。 チャットボットは、会話中の所望の情報スロットの79%をカバーし、プロンプトやトピックの設計は会話の流れやデータ収集のパフォーマンスに大きく影響した。 LLMによるチャットボット構築の機会と課題について論じる。

Large language models (LLMs) provide a new way to build chatbots by accepting natural language prompts. Yet, it is unclear how to design prompts to power chatbots to carry on naturalistic conversations while pursuing a given goal, such as collecting self-report data from users. We explore what design factors of prompts can help steer chatbots to talk naturally and collect data reliably. To this aim, we formulated four prompt designs with different structures and personas. Through an online study (N = 48) where participants conversed with chatbots driven by different designs of prompts, we assessed how prompt designs and conversation topics affected the conversation flows and users' perceptions of chatbots. Our chatbots covered 79% of the desired information slots during conversations, and the designs of prompts and topics significantly influenced the conversation flows and the data collection performance. We discuss the opportunities and challenges of building chatbots with LLMs.
翻訳日:2023-01-18 18:33:08 公開日:2023-01-14
# CHAMP: 安全運転支援システムのための地図歩行者のクラウドソーシング、歴史に基づくアドバイス

CHAMP: Crowdsourced, History-Based Advisory of Mapped Pedestrians for Safer Driver Assistance Systems ( http://arxiv.org/abs/2301.05842v1 )

ライセンス: Link先を確認
Ross Greer, Lulua Rakla, Samveed Desai, Afnan Alofi, Akshay Gopalkrishnan, Mohan Trivedi(参考訳) 車両は歩行者と道路を常に接近し、共有しているため、歩行者との衝突を防ぐために車両が不可欠である。 歩行者衝突防止の現在の方法は、歩行者が車両の進路に入ると警告をトリガーしブレーキをかけることのできる自動緊急ブレーキ(AEB)システムと視覚的歩行者検出器の統合に焦点を当てている。 残念なことに、歩行者検出に基づくシステムは、夜間や歩行者が閉じ込められている特定の状況で妨げられる可能性がある。 我々のシステムCHAMP (Crowdsourced, History-based Advisories of Mapped Pedestrians) は、オンラインの地図に基づく歩行者検知システムを用いて、歩行者の位置を反復的な位置通過後にデータセットに集約する。 このデータセットを使って歩行者ゾーンを学習し、暗い照明や歩行者排除といった課題にもかかわらず、車両が歩行者に近づいているときに助言通知を生成することができる。 カリフォルニア州ラ・ジョラで歩行者データの収集と注記を行い,歩行者配置の訓練とテストセットの作成を行った。 さらに,CHAMPの評価には,正しい勧告数,誤った勧告数,失敗した勧告数を用いて精度を定義し,パフォーマンス指標をリコールする。 このアプローチは、実験データセット上で最大100%の精度と75%のリコールを達成することができ、さらなるデータ収集による性能向上オプションが提供される。

Vehicles are constantly approaching and sharing the road with pedestrians, and as a result it is critical for vehicles to prevent any collisions with pedestrians. Current methods for pedestrian collision prevention focus on integrating visual pedestrian detectors with Automatic Emergency Braking (AEB) systems which can trigger warnings and apply brakes as a pedestrian enters a vehicle's path. Unfortunately, pedestrian-detection-based systems can be hindered in certain situations such as nighttime or when pedestrians are occluded. Our system, CHAMP (Crowdsourced, History-based Advisories of Mapped Pedestrians), addresses such issues using an online, map-based pedestrian detection system where pedestrian locations are aggregated into a dataset after repeated passes of locations. Using this dataset, we are able to learn pedestrian zones and generate advisory notices when a vehicle is approaching a pedestrian despite challenges like dark lighting or pedestrian occlusion. We collected and carefully annotated pedestrian data in La Jolla, CA to construct training and test sets of pedestrian locations. Moreover, we use the number of correct advisories, false advisories, and missed advisories to define precision and recall performance metrics to evaluate CHAMP. This approach can be tuned such that we achieve a maximum of 100% precision and 75% recall on the experimental dataset, with performance enhancement options through further data collection.
翻訳日:2023-01-18 18:32:51 公開日:2023-01-14
# NCP: 効果的な非教師あり形状マッチングに先立つニューラル対応

NCP: Neural Correspondence Prior for Effective Unsupervised Shape Matching ( http://arxiv.org/abs/2301.05839v1 )

ライセンス: Link先を確認
Souhaib Attaiki and Maks Ovsjanikov(参考訳) 我々は3次元形状間の対応を計算するための新しいパラダイムであるニューラル対応優先(NCP)を提案する。 私たちのアプローチは完全に教師なしで、スパースポイントクラウドや非等尺性メッシュのような現在のメソッドが失敗しても、高品質な対応につながります。 私たちの最初の重要な観察は、他の領域で観察された神経前兆と一致して、最近の3dデータにおけるネットワークアーキテクチャは、トレーニングなしでも、剛体形状と非剛体形状の間の妥当なマップを誘導するポイントワイズな特徴を生み出す傾向があることです。 第2に,ノイズマップを入力として与えると,入出力マップで特徴抽出ネットワークをトレーニングすることで,入出力からアーティファクトを取り除き,個々のペア間とコレクション内の両方において,強力な対応付け機構として機能することを示す。 これらの観察から, 形状マッチングのための2段階非教師なしパラダイムを提案する。 (i)既存のアプローチを適応させて無監督訓練を行い、騒がしい試合の最初の一式を得ること (二)これらのマッチを用いてネットワークを指導的に訓練すること。 このアプローチは,特にコレクション内でのトレーニングにおいて,マップの精度を大幅に向上することを示す。 NCPはデータ効率が高く、高速で、多くのタスクにおいて最先端の結果が得られることを示す。 私たちのコードは、https://github.com/pvnieo/ncp.com/で閲覧できます。

We present Neural Correspondence Prior (NCP), a new paradigm for computing correspondences between 3D shapes. Our approach is fully unsupervised and can lead to high-quality correspondences even in challenging cases such as sparse point clouds or non-isometric meshes, where current methods fail. Our first key observation is that, in line with neural priors observed in other domains, recent network architectures on 3D data, even without training, tend to produce pointwise features that induce plausible maps between rigid or non-rigid shapes. Secondly, we show that given a noisy map as input, training a feature extraction network with the input map as supervision tends to remove artifacts from the input and can act as a powerful correspondence denoising mechanism, both between individual pairs and within a collection. With these observations in hand, we propose a two-stage unsupervised paradigm for shape matching by (i) performing unsupervised training by adapting an existing approach to obtain an initial set of noisy matches, and (ii) using these matches to train a network in a supervised manner. We demonstrate that this approach significantly improves the accuracy of the maps, especially when trained within a collection. We show that NCP is data-efficient, fast, and achieves state-of-the-art results on many tasks. Our code can be found online: https://github.com/pvnieo/NCP.
翻訳日:2023-01-18 18:32:27 公開日:2023-01-14
# コヒーレンス凍結 厳密な非コヒーレント操作

Coherence freezing strictly incoherent operations ( http://arxiv.org/abs/2301.05891v1 )

ライセンス: Link先を確認
Zhaofang Bai and Shuanping Du(参考訳) 重要な物理資源としての量子コヒーレンスは様々な量子タスクの実行において重要な役割を果たすが、量子コヒーレンスはしばしばシステム環境相互作用によって劣化する。 我々は、開量子系のコヒーレンスがノイズの影響を受けない動的条件を解析する。 強無コヒーレント操作下でのコヒーレンス凍結挙動の構造的特徴を与える。 これは量子コヒーレンスの力学現象に対する洞察力のある物理的解釈を与えるかもしれない。

Quantum coherence as an important physical resource plays the key role in implementing various quantum tasks, whereas quantum coherence is often deteriorated due to the system-environment interacting. We analyse under which dynamical conditions the coherence of an open quantum system is totally unaffected by noise. Structural characterization of coherence freezing behaviour under strongly incoherent operations is given. This may provide an insightful physical interpretation for the dynamical phenomena of quantum coherence.
翻訳日:2023-01-18 18:25:58 公開日:2023-01-14
# TikTalk: リアルタイムチャットのためのマルチモーダル対話データセット

TikTalk: A Multi-Modal Dialogue Dataset for Real-World Chitchat ( http://arxiv.org/abs/2301.05880v1 )

ライセンス: Link先を確認
Hongpeng Lin, Ludan Ruan, Wenke Xia, Peiyu Liu, Jingyuan Wen, Yixin Xu, Di Hu, Ruihua Song, Wayne Xin Zhao, Qin Jin and Zhiwu Lu(参考訳) 本稿では,知的チャットボットの研究を促進することを目的とした,マルチモーダルな対話データセットTikTalkを提案する。 ビデオソーシャルアプリケーションでユーザーが生成するビデオと対応する対話で構成される。 既存のマルチモーダル対話データセットとは対照的に,実世界の対話シナリオにおけるchitchatに類似したビデオコメント応答ペアに基づく対話コーパスを構築する。 私たちの対話コンテキストには、テキスト、視覚、音声の3つのモダリティが含まれています。 従来の画像ベースの対話データセットと比較して、TikTalkのコンテキストの豊富なソースは、会話の多様性を増す。 TikTalkには38Kビデオと367K対話が含まれている。 データ分析により、TikTalkの応答は様々な文脈や外部知識と相関していることが示された。 マルチモーダル情報の深い理解と応答の生成には大きな課題があります。 3種類の自動メトリクスのベースラインを評価し,ケーススタディを実施した。 実験の結果、tiktalkの今後の改善の余地はまだ大きいことがわかった。 データセットは \url{https://github.com/RUC-AIMind/TikTalk} で利用可能です。

We present a novel multi-modal chitchat dialogue dataset-TikTalk aimed at facilitating the research of intelligent chatbots. It consists of the videos and corresponding dialogues users generate on video social applications. In contrast to existing multi-modal dialogue datasets, we construct dialogue corpora based on video comment-reply pairs, which is more similar to chitchat in real-world dialogue scenarios. Our dialogue context includes three modalities: text, vision, and audio. Compared with previous image-based dialogue datasets, the richer sources of context in TikTalk lead to a greater diversity of conversations. TikTalk contains over 38K videos and 367K dialogues. Data analysis shows that responses in TikTalk are in correlation with various contexts and external knowledge. It poses a great challenge for the deep understanding of multi-modal information and the generation of responses. We evaluate several baselines on three types of automatic metrics and conduct case studies. Experimental results demonstrate that there is still a large room for future improvement on TikTalk. Our dataset is available at \url{https://github.com/RUC-AIMind/TikTalk}.
翻訳日:2023-01-18 18:25:49 公開日:2023-01-14
# 言語に基づくディープラーニングを用いた珪藻由来の建築材料:知覚・変容・製造

Diatom-inspired architected materials using language-based deep learning: Perception, transformation and manufacturing ( http://arxiv.org/abs/2301.05875v1 )

ライセンス: Link先を確認
Markus J. Buehler(参考訳) 自然から学ぶことは何千年もの間人類の探求であった。 これは、ヒトが骨、蝶の翼、クモの巣などの自然デザインを評価する形式を採っているが、現在では高度な計算アルゴリズムを用いてデザインを生成することができる。 本稿では, トランスフォーマーニューラルネットワークを用いて, 生物学的にインスパイアされた新規な珪藻構造の設計を行い, 自然言語モデルを用いて, マニフェストを横断する洞察の学習, 処理, 伝達を行う。 本報告では, 新規な珪藻系設計を概説するとともに, 添加剤製造による製造標本を報告する。 ここで適用された方法は、他の生物学的設計手法に焦点を合わせ、特定の設計目標を満たすための体系的な最適化を実装し、材料設計のハイブリッドセットを含むように拡張することができる。

Learning from nature has been a quest of humanity for millennia. While this has taken the form of humans assessing natural designs such as bones, butterfly wings, or spider webs, we can now achieve generating designs using advanced computational algorithms. In this paper we report novel biologically inspired designs of diatom structures, enabled using transformer neural networks, using natural language models to learn, process and transfer insights across manifestations. We illustrate a series of novel diatom-based designs and also report a manufactured specimen, created using additive manufacturing. The method applied here could be expanded to focus on other biological design cues, implement a systematic optimization to meet certain design targets, and include a hybrid set of material design sets.
翻訳日:2023-01-18 18:25:35 公開日:2023-01-14
# CEDAS: 収束性を改善した圧縮分散確率勾配法

CEDAS: A Compressed Decentralized Stochastic Gradient Method with Improved Convergence ( http://arxiv.org/abs/2301.05872v1 )

ライセンス: Link先を確認
Kun Huang and Shi Pu(参考訳) 本稿では,通信制限条件下でのマルチエージェントネットワーク上での分散最適化問題を考察する。 圧縮分散確率勾配法を「適応段階付き圧縮完全拡散法(CEDAS)」と呼び,非バイアス圧縮演算子の下での滑らかな凸対象関数と滑らかな非凸対象関数の両方に対して,漸近的にSGDに匹敵する収束率を達成することを示す。 特に、我々の知る限り、CEDASは、集中SGDの収束率を達成するための(グラフ特異性に関して)最短の過渡時間(英語版)を楽しんでおり、これは$\mathcal{O}(nC^3/(1-\lambda_2)^{2})$ 滑らかな凸対象関数、$\mathcal{O}(n3C^6/(1-\lambda_2)^4)$ 滑らかな非凸対象関数、$ 1-\lambda_2)$ は混合行列のスペクトルギャップを表し、$C>0$ は圧縮関連パラメータである。 数値実験により,提案アルゴリズムの有効性がさらに示された。

In this paper, we consider solving the distributed optimization problem over a multi-agent network under the communication restricted setting. We study a compressed decentralized stochastic gradient method, termed ``compressed exact diffusion with adaptive stepsizes (CEDAS)", and show the method asymptotically achieves comparable convergence rate as centralized SGD for both smooth strongly convex objective functions and smooth nonconvex objective functions under unbiased compression operators. In particular, to our knowledge, CEDAS enjoys so far the shortest transient time (with respect to the graph specifics) for achieving the convergence rate of centralized SGD, which behaves as $\mathcal{O}(nC^3/(1-\lambda_2)^{2})$ under smooth strongly convex objective functions, and $\mathcal{O}(n^3C^6/(1-\lambda_2)^4)$ under smooth nonconvex objective functions, where $(1-\lambda_2)$ denotes the spectral gap of the mixing matrix, and $C>0$ is the compression-related parameter. Numerical experiments further demonstrate the effectiveness of the proposed algorithm.
翻訳日:2023-01-18 18:25:23 公開日:2023-01-14
# Dyna-DepthFormer:動的シーンにおける自己監督深度推定のためのマルチフレームトランス

Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth Estimation in Dynamic Scenes ( http://arxiv.org/abs/2301.05871v1 )

ライセンス: Link先を確認
Songchun Zhang and Chunhui Zhao(参考訳) 自己監督手法は深度推定タスクにおいて有望な結果を示した。 しかし, 対象深度マップとカメラエゴモーションを同時に推定し, マルチフレーム相関情報を活用し, 動的物体の動きを無視した。 本稿では,シーン深度と3次元運動場を共同で予測し,マルチフレーム情報をトランスで集約するDyna-Depthformerフレームワークを提案する。 私たちの貢献は2倍です。 まず,深度特徴表現の強化を実現するために,複数層にまたがって多視点相関を利用する。 具体的には,初期基準点の獲得に視点変換を用い,変形可能な注意力を用いて計算コストを削減する。 第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。 運動場予測を改善するために,空間的規則化損失とともに反復最適化戦略を提案する。 パイプライン全体は、最小のリジェクション損失を構築することで、エンドツーエンドのセルフ教師付きトレーニングを実現する。 KITTIとCityscapesのベンチマーク実験により,提案手法の有効性を実証し,提案手法が最先端のアルゴリズムより優れていることを示す。

Self-supervised methods have showed promising results on depth estimation task. However, previous methods estimate the target depth map and camera ego-motion simultaneously, underusing multi-frame correlation information and ignoring the motion of dynamic objects. In this paper, we propose a novel Dyna-Depthformer framework, which predicts scene depth and 3D motion field jointly and aggregates multi-frame information with transformer. Our contributions are two-fold. First, we leverage multi-view correlation through a series of self- and cross-attention layers in order to obtain enhanced depth feature representation. Specifically, we use the perspective transformation to acquire the initial reference point, and use deformable attention to reduce the computational cost. Second, we propose a warping-based Motion Network to estimate the motion field of dynamic objects without using semantic prior. To improve the motion field predictions, we propose an iterative optimization strategy, together with a sparsity-regularized loss. The entire pipeline achieves end-to-end self-supervised training by constructing a minimum reprojection loss. Extensive experiments on the KITTI and Cityscapes benchmarks demonstrate the effectiveness of our method and show that our method outperforms state-of-the-art algorithms.
翻訳日:2023-01-18 18:24:54 公開日:2023-01-14
# 関数型ニューラルネットワーク: 関数型データのシフト不変モデルと脳波分類への応用

Functional Neural Networks: Shift invariant models for functional data with applications to EEG classification ( http://arxiv.org/abs/2301.05869v1 )

ライセンス: Link先を確認
Florian Heinrichs, Mavin Heim, Corinna Weber(参考訳) 統計モデルは、その位置から独立して興味のある信号を検出することが望ましい。 データがスムーズなプロセスによって生成される場合、この追加構造を考慮する必要がある。 シフト不変であり,データの滑らかさを保つニューラルネットワークの新たなクラスである関数型ニューラルネットワーク(fnn)を提案する。 そこで我々は,多層パーセプトロンと畳み込みニューラルネットワークを機能データに拡張するために,機能データ分析(FDA)の手法を用いる。 異なるモデルアーキテクチャを提案し,fnnを用いて脳波解析(eeg)データを分類し,fdaのベンチマークモデルよりも精度が優れていることを示した。

It is desirable for statistical models to detect signals of interest independently of their position. If the data is generated by some smooth process, this additional structure should be taken into account. We introduce a new class of neural networks that are shift invariant and preserve smoothness of the data: functional neural networks (FNNs). For this, we use methods from functional data analysis (FDA) to extend multi-layer perceptrons and convolutional neural networks to functional data. We propose different model architectures, show that the models outperform a benchmark model from FDA in terms of accuracy and successfully use FNNs to classify electroencephalography (EEG) data.
翻訳日:2023-01-18 18:24:33 公開日:2023-01-14
# 指導型自己教師型学習と指導型学習

Gated Self-supervised Learning For Improving Supervised Learning ( http://arxiv.org/abs/2301.05865v1 )

ライセンス: Link先を確認
Erland Hilman Fuadi, Aristo Renaldo Ruslim, Putu Wahyu Kusuma Wardhana, Novanto Yudistira(参考訳) 画像分類のための自己教師型学習に関する研究では, 回転を拡張として用いることが一般的であった。 しかし、自己教師付き変換としてローテーションのみに依存することは、モデルがデータからリッチな特徴を学ぶ能力を制限する可能性がある。 本稿では,ゲーティング法と組み合わせた複数の局所化拡張を用いた画像分類のための自己教師付き学習手法を提案する。 我々のアプローチでは、回転に加え、フリップとシャッフルのチャネル拡張を使用し、モデルがデータからリッチな特徴を学習することができる。 さらに、ゲート混合ネットワークは、各自己教師付き学習が損失関数に与える影響を測定するために使用され、モデルが分類の最も関連する変換に焦点を合わせることができる。

In past research on self-supervised learning for image classification, the use of rotation as an augmentation has been common. However, relying solely on rotation as a self-supervised transformation can limit the ability of the model to learn rich features from the data. In this paper, we propose a novel approach to self-supervised learning for image classification using several localizable augmentations with the combination of the gating method. Our approach uses flip and shuffle channel augmentations in addition to the rotation, allowing the model to learn rich features from the data. Furthermore, the gated mixture network is used to weigh the effects of each self-supervised learning on the loss function, allowing the model to focus on the most relevant transformations for classification.
翻訳日:2023-01-18 18:24:22 公開日:2023-01-14
# レトロ合成のための人工知能の最近の進歩

Recent advances in artificial intelligence for retrosynthesis ( http://arxiv.org/abs/2301.05864v1 )

ライセンス: Link先を確認
Zipeng Zhong, Jie Song, Zunlei Feng, Tiantao Liu, Lingxiang Jia, Shaolun Yao, Tingjun Hou, Mingli Song(参考訳) 再合成は有機化学の基盤であり、化学者が物質や医薬品の製造に不利用可能な新しい分子にアクセスできるようにする。 従来のルールベースあるいは専門家ベースのコンピュータ支援合成は、高い労働コストや検索スペースの制限など、明らかに制限がある。 近年、人工知能による劇的なブレークスルーがレトロシンセシスに革命をもたらした。 ここでは,AIに基づくレトロシンセシスの最近の進歩を概観する。 単段階および多段階のレトロシンセシスでは、まずその目標をリストアップし、既存の方法の完全な分類を提供する。 その後、これらの手法をメカニズムと性能の観点から分析し、一般的な評価指標を導入し、いくつかの公開データセットにおける代表手法の詳細な比較を行う。 次の段階では、人気のあるデータベースとレトロシンセシスのための確立されたプラットフォームを紹介します。 最後に、この分野で有望な研究の方向性に関する議論を締めくくった。

Retrosynthesis is the cornerstone of organic chemistry, providing chemists in material and drug manufacturing access to poorly available and brand-new molecules. Conventional rule-based or expert-based computer-aided synthesis has obvious limitations, such as high labor costs and limited search space. In recent years, dramatic breakthroughs driven by artificial intelligence have revolutionized retrosynthesis. Here we aim to present a comprehensive review of recent advances in AI-based retrosynthesis. For single-step and multi-step retrosynthesis both, we first list their goal and provide a thorough taxonomy of existing methods. Afterwards, we analyze these methods in terms of their mechanism and performance, and introduce popular evaluation metrics for them, in which we also provide a detailed comparison among representative methods on several public datasets. In the next part we introduce popular databases and established platforms for retrosynthesis. Finally, this review concludes with a discussion about promising research directions in this field.
翻訳日:2023-01-18 18:24:11 公開日:2023-01-14
# アラビア語ツイートの噂に対する権威のスタンスを検出する:予備研究

Detecting Stance of Authorities towards Rumors in Arabic Tweets: A Preliminary Study ( http://arxiv.org/abs/2301.05863v1 )

ライセンス: Link先を確認
Fatima Haouari and Tamer Elsayed(参考訳) 数多くの研究が、伝播ネットワークの証拠を利用するか、ウェブからの外部証拠を使用することで、twitterにおける噂の検証の問題に対処した。 しかし、いずれも信頼できる当局の証拠を利用していない。 本稿では,ツイート中のうわさに対する当局の姿勢を検知するタスク,すなわち,当局からのツイートが同意するか,反対するか,あるいはその噂と無関係であるかを規定する。 このタスクは,既存の噂検証システムで活用されている証拠の出典を増やすのに役立つと考えている。 アラビアのTwitterのオーソリティタイムラインからエビデンスを抽出する,最初のOAuthor STance towards Rumors(AuSTR)データセットを構築し,リリースする。 データセットのサイズが比較的限られているため,既存のデータセットを用いた姿勢検出の有用性について検討した。 既存のデータセットはタスクにいくらか役立つが、それは明らかに不十分であり、Twitterの当局のスタンスを構成する注釈付きデータでそれらを増強する必要性を動機付けている。

A myriad of studies addressed the problem of rumor verification in Twitter by either utilizing evidence from the propagation networks or external evidence from the Web. However, none of these studies exploited evidence from trusted authorities. In this paper, we define the task of detecting the stance of authorities towards rumors in tweets, i.e., whether a tweet from an authority agrees, disagrees, or is unrelated to the rumor. We believe the task is useful to augment the sources of evidence utilized by existing rumor verification systems. We construct and release the first Authority STance towards Rumors (AuSTR) dataset, where evidence is retrieved from authority timelines in Arabic Twitter. Due to the relatively limited size of our dataset, we study the usefulness of existing datasets for stance detection in our task. We show that existing datasets are somewhat useful for the task; however, they are clearly insufficient, which motivates the need to augment them with annotated data constituting stance of authorities from Twitter.
翻訳日:2023-01-18 18:23:57 公開日:2023-01-14
# グラフレベル学習の包括的調査

A Comprehensive Survey of Graph-level Learning ( http://arxiv.org/abs/2301.05860v1 )

ライセンス: Link先を確認
Zhenyu Yang, Ge Zhang, Jia Wu, Jian Yang, Quan Z. Sheng, Shan Xue, Chuan Zhou, Charu Aggarwal, Hao Peng, Wenbin Hu, Edwin Hancock, and Pietro Li`o(参考訳) グラフは、化学化合物、タンパク質、ソーシャルネットワークといった関係データを表現する能力に優れています。 したがって、グラフの集合を入力として扱うグラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。 グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存する傾向がある。 しかし、これらの手法は良い解釈可能性の恩恵を受けるが、グラフ同型問題を回避できないため、しばしば計算上のボトルネックに苦しむ。 逆にディープラーニングは、グラフを自動抽出し、グラフを低次元表現にデコードすることで、グラフレベルの学習がグラフのスケール拡大に適応するのに役立つ。 その結果,これらの深層グラフ学習手法は多くの成功に寄与している。 しかし、従来の学習から始まり、ディープラーニングアプローチに移行するグラフレベルの学習をレビューする包括的な調査はない。 この記事では、このギャップを埋め、従来の学習、グラフレベルのディープニューラルネットワーク、グラフレベルのグラフニューラルネットワーク、グラフプーリングをカバーする体系的な分類に代表アルゴリズムを組み込む。 包括的調査を確実にするために、4つの異なる開発分野からのメソッドの進化、相互作用、およびコミュニケーションについても検討する。 続いて、ベンチマークデータセット、評価メトリクス、一般的なダウンストリームアプリケーションの簡単なレビューが続く。 この調査は、この急成長する分野に直面する課題を克服するために必要な13の今後の研究の方向性を結論付けている。

Graphs have a superior ability to represent relational data, like chemical compounds, proteins, and social networks. Hence, graph-level learning, which takes a set of graphs as input, has been applied to many tasks including comparison, regression, classification, and more. Traditional approaches to learning a set of graphs tend to rely on hand-crafted features, such as substructures. But while these methods benefit from good interpretability, they often suffer from computational bottlenecks as they cannot skirt the graph isomorphism problem. Conversely, deep learning has helped graph-level learning adapt to the growing scale of graphs by extracting features automatically and decoding graphs into low-dimensional representations. As a result, these deep graph learning methods have been responsible for many successes. Yet, there is no comprehensive survey that reviews graph-level learning starting with traditional learning and moving through to the deep learning approaches. This article fills this gap and frames the representative algorithms into a systematic taxonomy covering traditional learning, graph-level deep neural networks, graph-level graph neural networks, and graph pooling. To ensure a thoroughly comprehensive survey, the evolutions, interactions, and communications between methods from four different branches of development are also examined. This is followed by a brief review of the benchmark data sets, evaluation metrics, and common downstream applications. The survey concludes with 13 future directions of necessary research that will help to overcome the challenges facing this booming field.
翻訳日:2023-01-18 18:23:39 公開日:2023-01-14
# 特異密度関数と不確かさ原理

Exact Density Functional and Uncertainty Principle ( http://arxiv.org/abs/2301.05921v1 )

ライセンス: Link先を確認
Chaoming Song(参考訳) ホヘンベルクとコーンの定理は、固定相互作用を持つ多体系に対して、エネルギーの普遍密度汎関数が存在することを述べる。 この関数を近似するためのかなりの努力にもかかわらず、レヴィ・リーブアルゴリズムのような正確な密度関数の探索は数値計算に限られている。 一般に、密度汎関数の解析形式は決して知られていないと考えられている。 本文では,任意の物理観測値集合間の期待値の関係について,ハイゼンベルクの不確実性原理を一般化する。 一般フレームワークの特別なケースとしてホヘンベルクとコーンの定理を示し、正確な密度汎関数の明示的な構成を提供する。 いくつかの粒子を持つ系の密度汎関数の解析形式を実証し、その幾何学を詳細に研究する。 最後に、我々のフレームワークは、不確実性原理の広大な一般化として量子論の潜在的代替的な定式化を提供することを示す。

The Hohenberg and Kohn theorems state that for many-body systems with fixed interactions, there is a universal density functional of energy. Despite considerable efforts to approximate this functional, searches for exact density functionals such as the Levy-Lieb algorithm, are limited to numerical computations. It is generally believed that the analytical form of the density functional will never be known. In this letter, we generalize Heisenberg's uncertainty principle to relations for expectation values among an arbitrary set of physical observables. We show Hohenberg and Kohn theorems as a special case of our general framework and provide an explicit construction of exact density functional. We demonstrate analytical forms of density functional for systems with several particles and study their geometries in detail. Finally, we show that our framework provides a potential alternative formulation of quantum theory as a vast generalization of the uncertainty principle.
翻訳日:2023-01-18 18:16:58 公開日:2023-01-14
# ニューラルアーキテクチャ探索のための効率的な評価法:調査

Efficient Evaluation Methods for Neural Architecture Search: A Survey ( http://arxiv.org/abs/2301.05919v1 )

ライセンス: Link先を確認
Xiangning Xie, Xiaotian Song, Zeqiong Lv, Gary G. Yen, Weiping Ding, Yanan Sun(参考訳) ニューラル・アーキテクチャ・サーチ(nas)は、ディープ・ニューラル・ネットワーク(dnn)アーキテクチャの設計を自動化したことで注目を集めている。 しかしながら、NASの重要な部分である性能評価プロセスは、しばしば多数のDNNを訓練する必要がある。 これは必然的にNAS計算コストを引き起こす。 近年,この問題に対処するために,効率的な評価手法(eem)が数多く提案されている。 本稿では,これまでに公表されたこれらの脳波を包括的に調査し,この研究の方向性のさらなる発展を動機づける詳細な分析を行う。 具体的には、既存のEEMを、これらのEEMを構築するために訓練されたDNNの数に基づいて、4つのカテゴリに分けます。 分類は原理的に効率の度合いを反映し、結果として方法論的特徴を素早く把握するのに役立つ。 それぞれのカテゴリを調査する際に、設計原則をさらに議論し、既存のEEMの展望を明らかにするために強みと弱みを分析し、EEMの研究動向を容易に理解する。 さらに,本トピックにおける今後の研究の方向性を明らかにするための課題と課題についても述べる。 私たちの知る限りでは、NASのEEMを広範囲かつ体系的に調査する最初の作品です。

Neural Architecture Search (NAS) has received increasing attention because of its exceptional merits in automating the design of Deep Neural Network (DNN) architectures. However, the performance evaluation process, as a key part of NAS, often requires training a large number of DNNs. This inevitably causes NAS computationally expensive. In past years, many Efficient Evaluation Methods (EEMs) have been proposed to address this critical issue. In this paper, we comprehensively survey these EEMs published up to date, and provide a detailed analysis to motivate the further development of this research direction. Specifically, we divide the existing EEMs into four categories based on the number of DNNs trained for constructing these EEMs. The categorization can reflect the degree of efficiency in principle, which can in turn help quickly grasp the methodological features. In surveying each category, we further discuss the design principles and analyze the strength and weaknesses to clarify the landscape of existing EEMs, thus making easily understanding the research trends of EEMs. Furthermore, we also discuss the current challenges and issues to identify future research directions in this emerging topic. To the best of our knowledge, this is the first work that extensively and systematically surveys the EEMs of NAS.
翻訳日:2023-01-18 18:16:42 公開日:2023-01-14
# MSTL-TFTに基づく日頭PV電力予測

Day-Ahead PV Power Forecasting Based on MSTL-TFT ( http://arxiv.org/abs/2301.05911v1 )

ライセンス: Link先を確認
Xuetao Jiang and Meiyu Jiang and Qingguo Zhou(参考訳) 世界の都市化が進むにつれて、エネルギー需要が飛躍的に増加し、生産・保守コストの低いクリーンエネルギー源であり、正確な予測PV生成はグリッド統合にとって非常に重要であるが、近年の日頭PV予測研究は、生成データ分解、気象・機器のさらなる特徴、ANNモデルの改良・統合などを中心に行われ、日頭PV予測のためのMSTL-TFT法を提案した。 その結果は、DKASC PV予測で行った他のどの調査よりも優れている。

Energy demand is increasing dramatically as global urbanization progresses.Solar energy is a clean energy source with low production and maintenance costs.Accurately predicted PV generation is of great importance for grid integration.Recent day-ahead PV forecasting studies mainly include generation data decomposition, additional meteorological and equipment features, improvement and integration of ANN-based models.We proposed a MSTL-TFT method for day-ahead PV forecasting. The results are better than any of the other studies we have surveyed on day-ahead DKASC PV forecasting.
翻訳日:2023-01-18 18:16:24 公開日:2023-01-14
# 量子非退化測定のための測定演算子

Measurement operator for quantum nondemolition measurements ( http://arxiv.org/abs/2301.05910v1 )

ライセンス: Link先を確認
Ebubechukwu O. Ilo-Okeke, Ping Chen, Shuang Li, Bede C. Anusionwu, Valentin Ivannikov, and Tim Byrnes(参考訳) 原子アンサンブルの量子非破壊(QND)測定に対応する測定演算子を導出する。 量子測定演算子は正の演算子値測定(POVM)の形をとり、任意の相互作用時間、初期コヒーレント状態振幅、最終的な光子測定結果に有効である。 様々なパラメータへの依存性を解析し,qnd測定の短い相互作用時間に対する効果を初期状態波動関数のガウス変調に適用することを示した。 我々は、短い相互作用時間状態や射影測定限界など、様々な限界におけるPOVMの近似式を導出する。 いくつかの例では、スピンスクイーズとシュロディンガーの猫の状態が測定によってどのように生成できるかを示している。

We derive a measurement operator corresponding to a quantum nondemolition (QND) measurement of an atomic ensemble. The quantum measurement operator takes the form of a positive operator valued measure (POVM) and is valid for arbitrary interaction times, initial coherent state amplitudes, and final photon measurement outcomes. We analyze the dependence on various parameters and show that the effect of the QND measurement for short interaction times is to apply a Gaussian modulation of the initial state wavefunction. We derive approximate expressions for the POVM in various limits, such as the short interaction time regime and projective measurement limit. Several examples are shown which shows how spin squeezing and Schrodinger cat states can be generated using the measurement.
翻訳日:2023-01-18 18:16:11 公開日:2023-01-14
# 記号的ホモフォニー楽譜の美的品質評価のための秩序・複雑度モデル

An Order-Complexity Model for Aesthetic Quality Assessment of Symbolic Homophony Music Scores ( http://arxiv.org/abs/2301.05908v1 )

ライセンス: Link先を確認
Xin Jin, Wu Zhou, Jinyu Wang, Duo Xu, Yiqing Rong, Shuai Cui(参考訳) コンピュータの美学評価は視覚芸術の分野で大きな成果を上げているが、音楽の研究はいまだに検討する必要がある。 既存の音楽生成の成果は非常に大きいが、AIが生み出す音楽の質は、人間の作曲家が生み出すものに比べて相対的に劣っている。 AIによって作成された音楽のスコアは通常単調で感情を欠いている。 本稿では,Birkhoffの美的尺度に基づいて,ホモフォニー楽譜の美的品質評価のための客観的定量的評価法を提案する。 第1に,音楽スコアの質を基準モデルとして客観的に評価するために,ホモフォニー音楽スコア美学モデルを作成し,第2に8つの基本音楽特徴と4つの音楽美的特徴を提示した。

Computational aesthetics evaluation has made great achievements in the field of visual arts, but the research work on music still needs to be explored. Although the existing work of music generation is very substantial, the quality of music score generated by AI is relatively poor compared with that created by human composers. The music scores created by AI are usually monotonous and devoid of emotion. Based on Birkhoff's aesthetic measure, this paper proposes an objective quantitative evaluation method for homophony music score aesthetic quality assessment. The main contributions of our work are as follows: first, we put forward a homophony music score aesthetic model to objectively evaluate the quality of music score as a baseline model; second, we put forward eight basic music features and four music aesthetic features.
翻訳日:2023-01-18 18:15:59 公開日:2023-01-14
# 動的特徴圧縮を伴う遠隔制御課題に対する意味的・効果的なコミュニケーション

Semantic and Effective Communication for Remote Control Tasks with Dynamic Feature Compression ( http://arxiv.org/abs/2301.05901v1 )

ライセンス: Link先を確認
Pietro Talli, Francesco Pase, Federico Chiariotti, Andrea Zanella, Michele Zorzi(参考訳) ロボットアームの協調と産業システムのリモート無線制御は、5Gやそれ以上のシステムにおいて主要なユースケースである。 したがって、送信戦略を最適化して無関係な情報を捨てることによる効果的な通信問題を解決することは大きな利点であるが、しばしば非常に複雑な作業である。 本研究では,作業を制御するアクター(例えば工場内の移動ロボット)に,観察者が知覚データを伝達しなければならないプロトタイプシステムについて考察する。 次に、意味的および効果的なコミュニケーション指向のソリューションがシステム全体の性能に与える影響を考慮し、リモート部分観測可能なマルコフ決定プロセス(POMDP)としてモデル化する。 我々は,アンサンブルベクトル量子化変分オートエンコーダ(vq-vae)符号化を考慮して通信問題を分割し,環境の現状と過去のメッセージの記憶の両方を考慮して,深層強化学習(drl)エージェントを動的に適応させるように訓練する。 提案手法をよく知られた双極子参照制御問題に適用し,従来の手法に比べて有意な性能向上を得た。

The coordination of robotic swarms and the remote wireless control of industrial systems are among the major use cases for 5G and beyond systems: in these cases, the massive amounts of sensory information that needs to be shared over the wireless medium can overload even high-capacity connections. Consequently, solving the effective communication problem by optimizing the transmission strategy to discard irrelevant information can provide a significant advantage, but is often a very complex task. In this work, we consider a prototypal system in which an observer must communicate its sensory data to an actor controlling a task (e.g., a mobile robot in a factory). We then model it as a remote Partially Observable Markov Decision Process (POMDP), considering the effect of adopting semantic and effective communication-oriented solutions on the overall system performance. We split the communication problem by considering an ensemble Vector Quantized Variational Autoencoder (VQ-VAE) encoding, and train a Deep Reinforcement Learning (DRL) agent to dynamically adapt the quantization level, considering both the current state of the environment and the memory of past messages. We tested the proposed approach on the well-known CartPole reference control problem, obtaining a significant performance increase over traditional approaches
翻訳日:2023-01-18 18:15:45 公開日:2023-01-14
# 深層ニューラルネットワークを用いた厚み可変多次元傾斜板の静的・動的・安定性解析

Static, dynamic and stability analysis of multi-dimensional functional graded plate with variable thickness using deep neural network ( http://arxiv.org/abs/2301.05900v1 )

ライセンス: Link先を確認
Nam G. Luu and Thanh T. Banh(参考訳) 本研究の目的は, 弾性ウィンクラー基礎上に幅の異なる多方向機能傾斜(FG)板の中央偏向, 自然周波数, 臨界座屈荷重を解析し, 予測することである。 まず、静的および固有プロブレムの数学的モデルは、非常に詳細に定式化される。 fg材料特性は, 構成成分の体積率分布の森田中マイクロメカニクスモデルにより, 板の3方向にわたって滑らかかつ連続的に変化すると仮定した。 次に、4ノード(mitc4)のテンソル成分を混合補間した有限要素解析(fea)を行い、理論的に存在するせん断ロック現象を除去する。 次に, 可変厚み関数(一様, 非一様線形, 非一様非線形), 材料特性, 長さ-厚さ比, 境界条件, 弾性パラメータが板の応答に及ぼす影響について, いくつかの数値例を通して詳細に検討した。 最後に、バッチ正規化(BN)を用いたディープニューラルネットワーク(DNN)技術を学び、多方向FGプレートの非次元値を予測する。 dnnモデルはまた、エンジニアリングアプリケーションにおいて、広範囲のデータベースと異なるバイタルパラメータを処理できる強力な技術であることを示している。

The goal of this paper is to analyze and predict the central deflection, natural frequency, and critical buckling load of the multi-directional functionally graded (FG) plate with variable thickness resting on an elastic Winkler foundation. First, the mathematical models of the static and eigenproblems are formulated in great detail. The FG material properties are assumed to vary smoothly and continuously throughout three directions of the plate according to a Mori-Tanaka micromechanics model distribution of volume fraction of constituents. Then, finite element analysis (FEA) with mixed interpolation of tensorial components of 4-nodes (MITC4) is implemented in order to eliminate theoretically a shear locking phenomenon existing. Next, influences of the variable thickness functions (uniform, non-uniform linear, and non-uniform non-linear), material properties, length-to-thickness ratio, boundary conditions, and elastic parameters on the plate response are investigated and discussed in detail through several numerical examples. Finally, a deep neural network (DNN) technique using batch normalization (BN) is learned to predict the non-dimensional values of multi-directional FG plates. The DNN model also shows that it is a powerful technique capable of handling an extensive database and different vital parameters in engineering applications.
翻訳日:2023-01-18 18:15:23 公開日:2023-01-14
# ドメイン差分に基づく自動光学検査のためのモデルベース転送学習

Model-based Transfer Learning for Automatic Optical Inspection based on domain discrepancy ( http://arxiv.org/abs/2301.05897v1 )

ライセンス: Link先を確認
Erik Isai Valle Salgado, Haoxin Yan, Yue Hong, Peiyuan Zhu, Shidong Zhu, Chengwei Liao, Yanxiang Wen, Xiu Li, Xiang Qian, Xiaohao Wang, Xinghui Li(参考訳) 現在のスマートマニュファクチャリングにおいて,サンプル収集時間を著しく短縮し,効率を向上できるため,トランスファーラーニングはAOIアプリケーションにとって有望な方法である。 しかし、関連する研究は、データセット間のドメインの類似性、ソースデータセットのデータロングテールネスを考慮せずにtlを適用することでネットワークモデルを強化し、サンプル不足を軽減するために主に線形変換を用いた。 本研究は、モデルベースTLをドメイン類似性により適用し、ターゲットドメインとソースドメインの両方における全体的なパフォーマンスとデータ拡張を改善し、データ品質を向上し、不均衡を低減する。 類似の産業プロセスからのソースデータセット群を考慮し、ドメインの相違点スコアと各サンプルの数によって、どのグループが最もターゲットに関連があるかを定義する。 次に、選択したトレーニング済みのバックボーン重みをトレーニングし、ターゲットネットワークを微調整する。 我々の研究は、ベンチマークデータセットを用いたTLと比較してF1スコアとPR曲線が最大20%増加することを示唆している。

Transfer learning is a promising method for AOI applications since it can significantly shorten sample collection time and improve efficiency in today's smart manufacturing. However, related research enhanced the network models by applying TL without considering the domain similarity among datasets, the data long-tailedness of a source dataset, and mainly used linear transformations to mitigate the lack of samples. This research applies model-based TL via domain similarity to improve the overall performance and data augmentation in both target and source domains to enrich the data quality and reduce the imbalance. Given a group of source datasets from similar industrial processes, we define which group is the most related to the target through the domain discrepancy score and the number of samples each has. Then, we transfer the chosen pre-trained backbone weights to train and fine-tune the target network. Our research suggests increases in the F1 score and the PR curve up to 20% compared with TL using benchmark datasets.
翻訳日:2023-01-18 18:15:00 公開日:2023-01-14
# 複数の介入分布上の一貫した因果抽象を共同学習する

Jointly Learning Consistent Causal Abstractions Over Multiple Interventional Distributions ( http://arxiv.org/abs/2301.05893v1 )

ライセンス: Link先を確認
Fabio Massimo Zennaro, M\'at\'e Dr\'avucz, Geanina Apachitei, W. Dhammika Widanage, Theodoros Damoulas(参考訳) 抽象化は、同じシステムを表す2つの構造因果モデルを異なる解像度で関連付けるために使用できる。 介入分布に関する一貫性を保証する抽象学習は、基礎となる因果関係を尊重しながら、複数のレベルの粒度の証拠を共同で推論することを可能にする。 本稿では,Rishel (2020) が最近提案した抽象化の形式化に基づく,SCM間の因果的抽象化学習のための第1の枠組みを紹介する。 そこで本研究では,多数の組換えサブプロブレムを共同で解決する微分可能プログラミングソリューションを提案し,その性能と,合成環境における独立および逐次的アプローチに対する利点を,電気自動車のバッテリー製造に関する課題に基づいて検討する。

An abstraction can be used to relate two structural causal models representing the same system at different levels of resolution. Learning abstractions which guarantee consistency with respect to interventional distributions would allow one to jointly reason about evidence across multiple levels of granularity while respecting the underlying cause-effect relationships. In this paper, we introduce a first framework for causal abstraction learning between SCMs based on the formalization of abstraction recently proposed by Rischel (2020). Based on that, we propose a differentiable programming solution that jointly solves a number of combinatorial sub-problems, and we study its performance and benefits against independent and sequential approaches on synthetic settings and on a challenging real-world problem related to electric vehicle battery manufacturing.
翻訳日:2023-01-18 18:14:43 公開日:2023-01-14
# Iquaflowを用いた圧縮衛星画像の物体検出性能の変動

Object Detection performance variation on compressed satellite image datasets with iquaflow ( http://arxiv.org/abs/2301.05892v1 )

ライセンス: Link先を確認
Pau Gall\'es, Katalin Takats and Javier Marin(参考訳) 画像上の予測モデルの最高のパフォーマンスを達成するために、多くの作業が行われました。 これらのモデルのレジリエンスに関する研究は、元の品質を変える修正に苦しむイメージデータセットでトレーニングされている場合、少ない。 しかし、これは業界でしばしば発生する一般的な問題です。 その好例は、多くの画像を撮影している地球観測衛星である。 軌道上の衛星の地球への接続エネルギーと時間には制限があり、慎重に使用する必要がある。 これを緩和するアプローチは、ダウンロードする前にボード上の画像を圧縮する。 圧縮は、画像の意図された使用状況と、このアプリケーションの要件に応じて規制することができる。 本稿では,画像データセットの変更を前提として,画像品質とモデル性能のばらつきを調べるための新しいソフトウェアツール iquaflow を提案する。 さらに、圧縮レベルが異なる公開画像データセットDOTA Xia_2018_CVPR上でのオブジェクト指向物体検出モデルの適用について展示する。 最適圧縮点が発見され、iquaflowの有用性が明らかになる。

A lot of work has been done to reach the best possible performance of predictive models on images. There are fewer studies about the resilience of these models when they are trained on image datasets that suffer modifications altering their original quality. Yet this is a common problem that is often encountered in the industry. A good example of that is with earth observation satellites that are capturing many images. The energy and time of connection to the earth of an orbiting satellite are limited and must be carefully used. An approach to mitigate that is to compress the images on board before downloading. The compression can be regulated depending on the intended usage of the image and the requirements of this application. We present a new software tool with the name iquaflow that is designed to study image quality and model performance variation given an alteration of the image dataset. Furthermore, we do a showcase study about oriented object detection models adoption on a public image dataset DOTA Xia_2018_CVPR given different compression levels. The optimal compression point is found and the usefulness of iquaflow becomes evident.
翻訳日:2023-01-18 18:14:29 公開日:2023-01-14
# AIチームメイトによる複雑な選択におけるヒューリスティックスとバイアスの役割

The Role of Heuristics and Biases During Complex Choices with an AI Teammate ( http://arxiv.org/abs/2301.05969v1 )

ライセンス: Link先を確認
Nikolos Gurney, John H. Miller, David V. Pynadath(参考訳) 行動科学者は、単純な線形モデルからAIまで、アルゴリズムによる意思決定への回避を古典的に文書化してきた。 しかし感情は変わり、aiヘルパーの利用が加速している。 AIアシスタントは、人間が複雑な選択をしなければならない場合に最も価値がある。 ヒューリスティックスやバイアスを研究するための古典的な実験手法は、aiヘルパーによる複雑な選択を研究するには不十分であると主張する。 このような文脈で複雑な選択を研究するための実験パラダイムを応用した。 我々は、フレーミングとアンカー効果が、人々がAIヘルパーと一緒に働く方法に影響を与え、選択結果を予測することを示した。 この証拠は、一部の参加者、特にロスフレームの参加者がAIヘルパーを信頼しすぎており、それを行うことで最悪の選択結果を経験したことを示唆している。 このパラダイムはまた、人間-ai意思決定の将来の研究を可能にする計算モデリングフレンドリなデータを生成する。

Behavioral scientists have classically documented aversion to algorithmic decision aids, from simple linear models to AI. Sentiment, however, is changing and possibly accelerating AI helper usage. AI assistance is, arguably, most valuable when humans must make complex choices. We argue that classic experimental methods used to study heuristics and biases are insufficient for studying complex choices made with AI helpers. We adapted an experimental paradigm designed for studying complex choices in such contexts. We show that framing and anchoring effects impact how people work with an AI helper and are predictive of choice outcomes. The evidence suggests that some participants, particularly those in a loss frame, put too much faith in the AI helper and experienced worse choice outcomes by doing so. The paradigm also generates computational modeling-friendly data allowing future studies of human-AI decision making.
翻訳日:2023-01-18 18:08:47 公開日:2023-01-14
# Desbordante: ベンチマークスイートから高性能な科学集約データプロファイラ(プレプリント)

Desbordante: from benchmarking suite to high-performance science-intensive data profiler (preprint) ( http://arxiv.org/abs/2301.05965v1 )

ライセンス: Link先を確認
George Chernishev, Michael Polyntsov, Anton Chizhov, Kirill Stupakov, Ilya Shchuckin, Alexander Smirnov, Maxim Strutovsky, Alexey Shlyonskikh, Mikhail Firsov, Stepan Manannikov, Nikita Bobrov, Daniil Goncharov, Ilia Barutkin, Vladislav Shalnev, Kirill Muraviev, Anna Rakhmukova, Dmitriy Shcheka, Anton Chernikov, Dmitrii Mandelshtam, Mikhail Vyrodov, Arthur Saliou, Eduard Gaisin, Kirill Smirnov(参考訳) MetanomeやOpenCleanといったデータプロファイリングシステムのパイオニア化は、科学集約的なデータプロファイリングに注目を集めた。 このタイプのプロファイリングは、機能依存、データ制約、関連ルールなどの複雑なパターン(プリミティブ)を抽出することを目的としている。 しかし、これらのツールはプロダクション対応システムではなく、研究プロトタイプである。 Desbordante - オープンソースコードを備えた,高性能な科学集約型データプロファイラだ。 同様のシステムとは異なり、マルチユーザー環境での産業アプリケーションを重視して構築されている。 効率的で、クラッシュに耐性があり、スケーラブルです。 その効率性はC++で発見アルゴリズムを実装することで保証され、レジリエンスはコンテナ化の広範な使用によって達成され、スケーラビリティはコンテナのレプリケーションに基づいています。 Desbordanteは、IT専門家ではないドメインの専門家に焦点をあてて、産業レベルの原始的発見を広く一般に開放することを目指している。 プリミティブの発見以外にも、Desbordante氏はプリミティブバリデーションを提供している。プリミティブのインスタンスが保持するかどうかを報告するだけでなく、特別なスクリーンの使用によって保持できないものについても指摘している。 次に、Desbordanteはパイプライン - 検出されたプリミティブを使って実装されたプリミティブ、例えば型検出機能 - をサポートする。 組込みパイプラインを提供しており、ユーザーは提供されたPythonバインディングを使って独自のパイプラインを構築することができる。 他のプロファイラとは異なり、desbordanteは表データだけでなく、グラフデータやトランザクションデータでも動作する。 本稿では,desbordanteとその背後にあるビジョンとユースケースについて述べる。 より詳細な視点を提供するため、我々は、その基盤となっている現在の状態、アーキテクチャ、および設計決定について論じる。 さらに,今後の計画についても概説する。

Pioneering data profiling systems such as Metanome and OpenClean brought public attention to science-intensive data profiling. This type of profiling aims to extract complex patterns (primitives) such as functional dependencies, data constraints, association rules, and others. However, these tools are research prototypes rather than production-ready systems. The following work presents Desbordante - a high-performance science-intensive data profiler with open source code. Unlike similar systems, it is built with emphasis on industrial application in a multi-user environment. It is efficient, resilient to crashes, and scalable. Its efficiency is ensured by implementing discovery algorithms in C++, resilience is achieved by extensive use of containerization, and scalability is based on replication of containers. Desbordante aims to open industrial-grade primitive discovery to a broader public, focusing on domain experts who are not IT professionals. Aside from the discovery of various primitives, Desbordante offers primitive validation, which not only reports whether a given instance of primitive holds or not, but also points out what prevents it from holding via the use of special screens. Next, Desbordante supports pipelines - ready-to-use functionality implemented using the discovered primitives, for example, typo detection. We provide built-in pipelines, and the users can construct their own via provided Python bindings. Unlike other profilers, Desbordante works not only with tabular data, but with graph and transactional data as well. In this paper, we present Desbordante, the vision behind it and its use-cases. To provide a more in-depth perspective, we discuss its current state, architecture, and design decisions it is built on. Additionally, we outline our future plans.
翻訳日:2023-01-18 18:08:36 公開日:2023-01-14
# 空間平衡物体検出に向けて

Towards Spatial Equilibrium Object Detection ( http://arxiv.org/abs/2301.05957v1 )

ライセンス: Link先を確認
Zhaohui Zheng, Yuming Chen, Qibin Hou, Xiang Li, Ming-Ming Cheng(参考訳) セマンティックオブジェクトは画像上に不均一に分散される。 本稿では,現代の物体検出器の空間的不均衡問題について検討し,この「空間バイアス」をゾーン間の検出性能の測定により定量化することを提案する。 解析の結果,物体の空間的不均衡が検出性能に大きな影響を与え,検出アプリケーションのロバストさを抑えることがわかった。 これにより、より一般化された空間平衡精度 (SP) を設計し、物体検出器の検出性能をより良く特徴付けることができる。 さらに,検出器の最適化プロセスに先行空間重みを注入することにより空間不均衡問題を緩和するための空間平衡ラベル割り当て(SELA)を提案する。 PASCAL VOC, MS COCO, およびフェイスマスク/フルーツ/ヘルペット画像上の3つのアプリケーションデータセットに関する大規模な実験により, 本手法の利点が示された。 本研究は,従来の物体検出器の感覚に挑戦し,空間平衡が不可欠であることを示す。 これらの発見がコミュニティを刺激し、優れた物体検出器がどうあるべきかを考え直すことを期待しています。 すべてのソースコード、評価プロトコル、チュートリアルはhttps://github.com/Zzh-tju/ZoneEvalで公開されている。

Semantic objects are unevenly distributed over images. In this paper, we study the spatial disequilibrium problem of modern object detectors and propose to quantify this ``spatial bias'' by measuring the detection performance over zones. Our analysis surprisingly shows that the spatial imbalance of objects has a great impact on the detection performance, limiting the robustness of detection applications. This motivates us to design a more generalized measurement, termed Spatial equilibrium Precision (SP), to better characterize the detection performance of object detectors. Furthermore, we also present a spatial equilibrium label assignment (SELA) to alleviate the spatial disequilibrium problem by injecting the prior spatial weight into the optimization process of detectors. Extensive experiments on PASCAL VOC, MS COCO, and 3 application datasets on face mask/fruit/helmet images demonstrate the advantages of our method. Our findings challenge the conventional sense of object detectors and show the indispensability of spatial equilibrium. We hope these discoveries would stimulate the community to rethink how an excellent object detector should be. All the source code, evaluation protocols, and the tutorials are publicly available at https://github.com/Zzh-tju/ZoneEval
翻訳日:2023-01-18 18:08:07 公開日:2023-01-14
# 反射赤外光信号による手のジェスチャー認識

Hand Gesture Recognition through Reflected Infrared Light Wave Signals ( http://arxiv.org/abs/2301.05955v1 )

ライセンス: Link先を確認
Li Yu, Hisham Abuella, Md Zobaer Islam, John F. O'Hara, Christopher Crick, Sabit Ekin(参考訳) 本研究では,人体から反射される非コヒーレント光波信号のみを用いた無線(非接触)ジェスチャー認識手法を提案する。 既存のレーダー、光影、音響、カメラベースのセンシングシステムと比べ、この技術は安価でユビキタスな光源(例えば赤外線LED)を使って被験者の手の動きに光を送り、反射光は光センサー(例えば光検出器)によって収集される。 20〜35cmの範囲で受信した光強度の変化から異なるジェスチャーを認識する。 手のジェスチャー認識の結果は平均で96%の精度を示した。 開発システムは、低コストで非接触なジェスチャー認識技術として、多数のヒューマンコンピュータインタラクション(HCI)アプリケーションで利用することができる。

In this study, we present a wireless (non-contact) gesture recognition method using only incoherent light wave signals reflected from a human subject. In comparison to existing radar, light shadow, sound and camera-based sensing systems, this technology uses a low-cost ubiquitous light source (e.g., infrared LED) to send light towards the subject's hand performing gestures and the reflected light is collected by a light sensor (e.g., photodetector). This light wave sensing system recognizes different gestures from the variations of the received light intensity within a 20-35cm range. The hand gesture recognition results demonstrate up to 96% accuracy on average. The developed system can be utilized in numerous Human-computer Interaction (HCI) applications as a low-cost and non-contact gesture recognition technology.
翻訳日:2023-01-18 18:07:51 公開日:2023-01-14
# 多量子ビット状態の特殊コアテンソルと3線の並行性

Special core tensors of multi-qubit states and the concurrency of three lines ( http://arxiv.org/abs/2301.05953v1 )

ライセンス: Link先を確認
Pak Shen Choong, Hishamuddin Zainuddin, Kar Tim Chan, Sharifah Kartini Said Husain(参考訳) マルチパーティイト状態の分類は、局所ユニタリ(LU)または確率的局所演算および古典的通信(SLOCC)の作用の下で、運用上有用で有限な絡み合いクラスを得ることを目的としている。 本研究では,高階特異値分解 (hosvd) と 3 行の並行性を用いて,これらのクラスを計算的に簡易に求める手法を提案する。 HOSVDは同時に多粒子状態の1体還元密度行列(RDM)を対角化するため、多粒子状態のコアテンソルはそのような対角化1体RDMの純粋状態表現である。 3 と 4 のキュービットの特別なコアテンソルを同定し、これはデフォルトでも真に絡み合っている。 特別な核テンソルは、最初の$n$モード特異値である$\sigma_1^{(i)2}$に基づいて、状態の族に分類される。 現在の提案はマルチキュービットシステムに限定されているが、大規模なマルチキュービットシステムとよく合致し、有限個の状態族を生成する。

Classification of multipartite states aims to obtain a set of operationally useful and finite entanglement classes under the action of either local unitary (LU) or stochastic local operation and classical communication (SLOCC). In this work, we propose a computationally simple approach to find these classes by using higher order singular value decomposition (HOSVD) and the concurrency of three lines. Since HOSVD simultaneously diagonalizes the one-body reduced density matrices (RDM) of multipartite states, the core tensor of multipartite states is the pure-state representation of such simultaneously diagonalized one-body RDM. We identified the special core tensors of three and four qubits, which are also genuinely entangled by default. The special core tensors are further categorized into families of states based on their first $n$-mode singular values, $\sigma_1^{(i)2}$. The current proposal is limited to multi-qubit system, but it scales well with large multi-qubit systems and produces a finite number of families of states.
翻訳日:2023-01-18 18:07:38 公開日:2023-01-14
# $\texttt{tasksource}$: Frictionless Extreme Multi-Task Learning and Evaluationのための構造化データセット前処理アノテーション

$\texttt{tasksource}$: Structured Dataset Preprocessing Annotations for Frictionless Extreme Multi-Task Learning and Evaluation ( http://arxiv.org/abs/2301.05948v1 )

ライセンス: Link先を確認
Damien Sileo(参考訳) HuggingFace Datasets Hubは数千のデータセットをホストする。 これは言語モデルのトレーニングと評価にエキサイティングな機会を提供します。 しかし、特定のタスクのデータセットは異なるスキーマで格納され、調和は見かけより難しい(https://xkcd.com/927/)。 マルチタスクトレーニングや評価は、タスクテンプレートにデータを適合させるために手作業を必要とする。 さまざまなイニシアチブが、同じフォーマットで前処理データセットに調和データセットや調和コードをリリースすることで、この問題に独立して対処している。 カラム名のマッピングや、カラム内の構造化データからの特定のサブフィールドの抽出など、以前の前処理にまたがるパターンを特定し、アノテーションを十分に公開し、非構造化コードに埋もれないように構造化アノテーションフレームワークを提案する。 400以上の英語タスクのためのデータセットアノテーションフレームワークとデータセットアノテーション(https://github.com/sileod/tasksource)をリリースします。 これらのアノテーションは、すべてのデータセットのインプットやラベルとして使用するべき列の名前のようなメタデータを提供し、フレームワークを使用しなくても、将来のデータセット前処理の時間を節約できる。 タスクソースのタスクに対してマルチタスクのテキストエンコーダを微調整し、外部評価 https://hf.co/sileod/deberta-v3-base-tasksource-nli で同等の大きさの公開可能なテキストエンコーダを全て上回ります。

The HuggingFace Datasets Hub hosts thousands of datasets. This provides exciting opportunities for language model training and evaluation. However, the datasets for a given type of task are stored with different schemas, and harmonization is harder than it seems (https://xkcd.com/927/). Multi-task training or evaluation requires manual work to fit data into task templates. Various initiatives independently address this problem by releasing the harmonized datasets or harmonization codes to preprocess datasets to the same format. We identify patterns across previous preprocessings, e.g. mapping of column names, and extraction of a specific sub-field from structured data in a column, and propose a structured annotation framework that makes our annotations fully exposed and not buried in unstructured code. We release a dataset annotation framework and dataset annotations for more than 400 English tasks (https://github.com/sileod/tasksource). These annotations provide metadata, like the name of the columns that should be used as input or labels for all datasets, and can save time for future dataset preprocessings, even if they do not use our framework. We fine-tune a multi-task text encoder on all tasksource tasks, outperforming every publicly available text encoder of comparable size on an external evaluation https://hf.co/sileod/deberta-v3-base-tasksource-nli.
翻訳日:2023-01-18 18:07:18 公開日:2023-01-14
# 知識は力であり、理解は影響する: ユーティリティとゴールを超えて、説明品質、そして、パス推論勧告の公正性

Knowledge is Power, Understanding is Impact: Utility and Beyond Goals, Explanation Quality, and Fairness in Path Reasoning Recommendation ( http://arxiv.org/abs/2301.05944v1 )

ライセンス: Link先を確認
Giacomo Balloccu, Ludovico Boratto, Christian Cancedda, Gianni Fenu, Mirko Marras(参考訳) 経路推論は知識グラフ(kg)に基づいて高次ユーザ-製品関係をモデル化する注目すべき推奨アプローチである。 このアプローチは、推奨製品と経験豊富な製品の間の推論パスを抽出し、そのパスをユーザのためのテキスト説明に変換する。 残念ながら、この分野における評価プロトコルは不均一で限定的であり、既存の手法の影響を文脈化することは困難である。 本稿では,トップクラスのカンファレンスで提案されている3つの関連する経路推論推薦手法を再現した。 2つの公開データセットをベースとした共通評価プロトコルと,他の知識認識手法との比較により,提案手法が目的,説明品質,消費者および提供者公正性にどの程度適合しているかを検討した。 本研究は,この分野の進捗状況と今後の方向性について概説する。 ソースコード: \url{https://github.com/giacoballoccu/rep-path-reasoning-recsys}

Path reasoning is a notable recommendation approach that models high-order user-product relations, based on a Knowledge Graph (KG). This approach can extract reasoning paths between recommended products and already experienced products and, then, turn such paths into textual explanations for the user. Unfortunately, evaluation protocols in this field appear heterogeneous and limited, making it hard to contextualize the impact of the existing methods. In this paper, we replicated three state-of-the-art relevant path reasoning recommendation methods proposed in top-tier conferences. Under a common evaluation protocol, based on two public data sets and in comparison with other knowledge-aware methods, we then studied the extent to which they meet recommendation utility and beyond objectives, explanation quality, and consumer and provider fairness. Our study provides a picture of the progress in this field, highlighting open issues and future directions. Source code: \url{https://github.com/giacoballoccu/rep-path-reasoning-recsys}.
翻訳日:2023-01-18 18:06:48 公開日:2023-01-14
# センチネルリンパ節を伴う乳癌の早期診断のためのDeep Learning

Deep Learning Provides Rapid Screen for Breast Cancer Metastasis with Sentinel Lymph Nodes ( http://arxiv.org/abs/2301.05938v1 )

ライセンス: Link先を確認
Kareem Allam, Xiaohong Iris Wang, Songlin Zhang, Jianmin Ding, Kevin Chiu, Karan Saluja, Amer Wahed, Hongxia Sun, Andy N.D. Nguyen(参考訳) 深層学習はセンチネルリンパ節のスライド画像全体を解析することにより乳癌転移の検出に有用であることが示されている。 しかし,各症例のリンパ節スライスを広範囲にスキャンし,解析する必要がある。 本研究は乳がん検診に焦点をあて,センチネルリンパ節からのわずかな画像パッチのみを用いて,転移に対して陽性または陰性の乳がん検診を行い,腫瘍そのものではなく腫瘍環境の変化を検出することを目的とした。 我々は、この目的のために診断モデルを構築するために、python言語で畳み込みニューラルネットワークを設計する。 この予備研究の優れた成果は、デジタル病理学ワークフローに自動転移スクリーンを組み込むことで、病理医の生産性を高めるという概念の実証を提供した。 全センチネルリンパ節全領域の腫瘍を網羅的に検索するのではなく,極めて高速なスクリーンで検索できるため,本法は特異なアプローチである。

Deep learning has been shown to be useful to detect breast cancer metastases by analyzing whole slide images of sentinel lymph nodes. However, it requires extensive scanning and analysis of all the lymph nodes slides for each case. Our deep learning study focuses on breast cancer screening with only a small set of image patches from any sentinel lymph node, positive or negative for metastasis, to detect changes in tumor environment and not in the tumor itself. We design a convolutional neural network in the Python language to build a diagnostic model for this purpose. The excellent results from this preliminary study provided a proof of concept for incorporating automated metastatic screen into the digital pathology workflow to augment the pathologists' productivity. Our approach is unique since it provides a very rapid screen rather than an exhaustive search for tumor in all fields of all sentinel lymph nodes.
翻訳日:2023-01-18 18:06:29 公開日:2023-01-14
# 手書き文字認識におけるエンドツーエンドページレベル評価

End-to-End Page-Level Assessment of Handwritten Text Recognition ( http://arxiv.org/abs/2301.05935v1 )

ライセンス: Link先を確認
Enrique Vidal, Alejandro H. Toselli, Antonio R\'ios-Vila, Jorge Calvo-Zaragoza(参考訳) 手書き文字認識(HTR)システムの評価は、伝統的に文字レベルと単語レベルの両方において、HTRと接地真理(GT)文字の編集距離に基づいてメトリクスを使用してきた。 実験プロトコルでは、gt と htr のテキスト行が同じであると仮定し、編集距離を与えられた行ごとに独立に計算できる場合、これは非常に適している。 近年のパターン認識の進歩により、HTRシステムは文書のエンドツーエンドのページレベルの書き起こしに直面し、異なるテキスト行と対応する読み込み順序(RO)を特定する精度が重要な役割を担っている。 そのような場合、標準メトリクスは、現れる可能性のある矛盾を考慮に入れない。 本稿では,ページレベルでのhtrシステム評価の問題点を詳細に紹介する。 本研究では,転写精度とRO良さを別々に考慮した2次元評価の有用性を解析する。 異なる代替案が提案され、分析され、部分的にシミュレートされ、そして実のエンドツーエンドの実験を通じて実証的に比較される。 結果は,提案した2次元評価手法の有効性を支持する。 重要な結論は、このような評価は、単語誤り率(Word Error Rate)と、順序を無視する単語誤り率(Word Error Rate)という2つの単純かつよく知られた指標によって適切に達成できるということである。 後者は本質的単語認識誤差を直接的かつ極めて正確に評価するが、両者の違いは、レイアウト分析の欠陥に関連するro誤差を明示的に測定するスピアマンのフットルール距離と優雅に相関する。

The evaluation of Handwritten Text Recognition (HTR) systems has traditionally used metrics based on the edit distance between HTR and ground truth (GT) transcripts, at both the character and word levels. This is very adequate when the experimental protocol assumes that both GT and HTR text lines are the same, which allows edit distances to be independently computed to each given line. Driven by recent advances in pattern recognition, HTR systems increasingly face the end-to-end page-level transcription of a document, where the precision of locating the different text lines and their corresponding reading order (RO) play a key role. In such a case, the standard metrics do not take into account the inconsistencies that might appear. In this paper, the problem of evaluating HTR systems at the page level is introduced in detail. We analyze the convenience of using a two-fold evaluation, where the transcription accuracy and the RO goodness are considered separately. Different alternatives are proposed, analyzed and empirically compared both through partially simulated and through real, full end-to-end experiments. Results support the validity of the proposed two-fold evaluation approach. An important conclusion is that such an evaluation can be adequately achieved by just two simple and well-known metrics: the Word Error Rate, that takes transcription sequentiality into account, and the here re-formulated Bag of Words Word Error Rate, that ignores order. While the latter directly and very accurately assess intrinsic word recognition errors, the difference between both metrics gracefully correlates with the Spearman's Foot Rule Distance, a metric which explicitly measures RO errors associated with layout analysis flaws.
翻訳日:2023-01-18 18:06:15 公開日:2023-01-14
# 大規模事前学習とグラフ構造学習による薬物相乗的組み合わせ予測

Drug Synergistic Combinations Predictions via Large-Scale Pre-Training and Graph Structure Learning ( http://arxiv.org/abs/2301.05931v1 )

ライセンス: Link先を確認
Zhihang Hu, Qinze Yu, Yucheng Guo, Taifeng Wang, Irwin King, Xin Gao, Le Song, and Yu Li(参考訳) 薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。 しかしながら、ウェットラボ実験による新しい薬物の組み合わせの同定は、膨大な組合せ探索空間のため、資源集約的である。 近年,シナジスティックな組み合わせを発見する効率的な方法として,特にディープラーニングモデルが登場している。 以前の手法では十分な性能が報告されたが、モデルは通常マルチモーダルデータを利用せず、新しい薬物や細胞株を扱えない。 本研究では,薬物関連の諸側面をカバーするさまざまなデータセットからデータを収集した。 次に,大規模事前学習モデルを利用して,薬物,タンパク質,疾患に関する情報表現と特徴を生成する。 それに基づいて、メッセージパッシンググラフが構築され、グラフ構造学習の柔軟性とともに情報を伝播する。 これは最初に生体ネットワークに導入され、グラフ内で擬似関係を生成することができる。 本フレームワークは,相乗的予測ベンチマークデータセットにおける他の深層学習に基づく手法と比較し,最先端の結果を得る。 また、アストラゼネカがリリースしている独立したセットの試験において、従来の方法よりも10%の改善が観察された新しい薬物組み合わせデータを参照することもできる。 さらに、私たちは目に見えない薬物に対して堅牢で、第2のベストモデルと比べて約15%のAU ROCを超えています。 我々の枠組みは、新薬のウェットラブ発見と、正確な組み合わせ医療のための有望なガイダンスの構築に寄与すると考えている。

Drug combination therapy is a well-established strategy for disease treatment with better effectiveness and less safety degradation. However, identifying novel drug combinations through wet-lab experiments is resource intensive due to the vast combinatorial search space. Recently, computational approaches, specifically deep learning models have emerged as an efficient way to discover synergistic combinations. While previous methods reported fair performance, their models usually do not take advantage of multi-modal data and they are unable to handle new drugs or cell lines. In this study, we collected data from various datasets covering various drug-related aspects. Then, we take advantage of large-scale pre-training models to generate informative representations and features for drugs, proteins, and diseases. Based on that, a message-passing graph is built on top to propagate information together with graph structure learning flexibility. This is first introduced in the biological networks and enables us to generate pseudo-relations in the graph. Our framework achieves state-of-the-art results in comparison with other deep learning-based methods on synergistic prediction benchmark datasets. We are also capable of inferencing new drug combination data in a test on an independent set released by AstraZeneca, where 10% of improvement over previous methods is observed. In addition, we're robust against unseen drugs and surpass almost 15% AU ROC compared to the second-best model. We believe our framework contributes to both the future wet-lab discovery of novel drugs and the building of promising guidance for precise combination medicine.
翻訳日:2023-01-18 18:05:46 公開日:2023-01-14
# 人工知能のためのシストスコピックメディアコンテンツの概念的枠組みと文書化標準

Conceptual Framework and Documentation Standards of Cystoscopic Media Content for Artificial Intelligence ( http://arxiv.org/abs/2301.05991v1 )

ライセンス: Link先を確認
Okyaz Eminaga Timothy Jiyong Lee, Jessie Ge, Eugene Shkolyar, Mark Laurie, Jin Long, Lukas Graham Hockman, Joseph C. Liao(参考訳) 背景: 嚢胞内視鏡の臨床資料は、視覚的およびテキスト的材料を含む。 しかし, 定期診療における非効率なデータ管理のため, 教育・研究目的の視覚シストスコープデータの二次的使用は限定的である。 方法: データ管理,アノテーション管理,利用管理という3つの主要なセクションを標準化した方法で嚢胞内視鏡を文書化する,概念的なフレームワークが設計された。 品質管理と根本原因分析のためのスイスチーズモデルが提案された。 FAIR(findable, accessable, interoperable, re-useable)の原則に関して、フレームワークを実装するために必要なインフラストラクチャを定義しました。 FAIR原則の遵守を保証するために、研究プロジェクトと教育プロジェクトのためのデータ共有を実証する2つのシナリオを適用した。 結果: このフレームワークはFAIR原則に従ってうまく実装されました。 このフレームワークから生成された嚢胞内視鏡アトラスを教育用webポータルに提示し,68本の全長質的ビデオとそれに対応する注釈データを,ケース,病変,フレームレベルでの分類問題や分節問題をカバーする人工知能プロジェクトに適用した。 結論:本研究は,視覚文書を標準化した形で保存し,FAIRデータを教育・人工知能研究に活用するための枠組みを提案する。

Background: The clinical documentation of cystoscopy includes visual and textual materials. However, the secondary use of visual cystoscopic data for educational and research purposes remains limited due to inefficient data management in routine clinical practice. Methods: A conceptual framework was designed to document cystoscopy in a standardized manner with three major sections: data management, annotation management, and utilization management. A Swiss-cheese model was proposed for quality control and root cause analyses. We defined the infrastructure required to implement the framework with respect to FAIR (findable, accessible, interoperable, re-usable) principles. We applied two scenarios exemplifying data sharing for research and educational projects to ensure the compliance with FAIR principles. Results: The framework was successfully implemented while following FAIR principles. The cystoscopy atlas produced from the framework could be presented in an educational web portal; a total of 68 full-length qualitative videos and corresponding annotation data were sharable for artificial intelligence projects covering frame classification and segmentation problems at case, lesion and frame levels. Conclusion: Our study shows that the proposed framework facilitates the storage of the visual documentation in a standardized manner and enables FAIR data for education and artificial intelligence research.
翻訳日:2023-01-18 17:58:24 公開日:2023-01-14
# ベイズ最適化におけるモデル不確かさの役割について

On the role of Model Uncertainties in Bayesian Optimization ( http://arxiv.org/abs/2301.05983v1 )

ライセンス: Link先を確認
Jonathan Foldager, Mikkel Jordahn, Lars Kai Hansen, Michael Riis Andersen(参考訳) ベイズ最適化(BO)はブラックボックス最適化の一般的な手法であり、次にどの実験を行うかを決める際の意思決定プロセスの一部として不確実性に依存する。 しかし、BOアルゴリズムの性能に対する不確実性の影響や、どの程度のキャリブレーションされた不確実性により、グローバルな最適点を見つける能力が向上したかは、あまり研究されていない。 本研究では,人気のあるサーロゲートモデルにおけるbo性能(regret)と不確実性校正の関係を広範囲に検討し,合成実験と実世界実験の両方で比較した。 以上の結果から,ガウス過程は強い代理モデルであり,他の人気モデルよりも優れていることが示された。 以上の結果から, 校正誤差と後悔の相関は良好であるが, 分析においてモデルの種類を制御すると, この関係は消失することがわかった。 また,再校正の効果についても検討し,後悔が改善されないことを実証した。 最後に, 標本サイズが小さいため, 不確実性校正がBOと組み合わせるのが難しい理由を理論的に正当化する。

Bayesian optimization (BO) is a popular method for black-box optimization, which relies on uncertainty as part of its decision-making process when deciding which experiment to perform next. However, not much work has addressed the effect of uncertainty on the performance of the BO algorithm and to what extent calibrated uncertainties improve the ability to find the global optimum. In this work, we provide an extensive study of the relationship between the BO performance (regret) and uncertainty calibration for popular surrogate models and compare them across both synthetic and real-world experiments. Our results confirm that Gaussian Processes are strong surrogate models and that they tend to outperform other popular models. Our results further show a positive association between calibration error and regret, but interestingly, this association disappears when we control for the type of model in the analysis. We also studied the effect of re-calibration and demonstrate that it generally does not lead to improved regret. Finally, we provide theoretical justification for why uncertainty calibration might be difficult to combine with BO due to the small sample sizes commonly used.
翻訳日:2023-01-18 17:58:02 公開日:2023-01-14
# 動的時間的リスク対策によるリスク回避強化学習

Risk-Averse Reinforcement Learning via Dynamic Time-Consistent Risk Measures ( http://arxiv.org/abs/2301.05981v1 )

ライセンス: Link先を確認
Xian Yu, Siqian Shen(参考訳) 従来の強化学習(RL)は、期待される総報酬を最大化することを目的としており、不確実な結果のリスクをコントロールし、リスク回避環境で信頼性の高い性能を確保する必要がある。 本稿では,無限水平マルコフ決定過程(MDP)における報酬列の動的リスクを最大化する問題を考察する。 我々は,想定条件付きリスク対策(ECRMs)を無限水平リスク回避MDPに適用し,その時間的整合性を証明する。 予測値と条件付きリスクリスク(CVaR)の凸結合を特別な一段階の条件付きリスク尺度として用いて、我々はリスク回避型MDPを、強化されたアクション空間を持つリスク中立型として再構成し、即時報酬の操作を行う。 さらに、関連するベルマン作用素は、任意の値ベースのRLアルゴリズムの収束を保証する縮約写像であることを示す。 そこで,我々は,リスク回避型深層q-ラーニングフレームワークを開発し,2つの単純なmdpに基づく数値的研究により,リスク回避設定が分散を減少させ,結果の頑健性を高めることができることを示した。

Traditional reinforcement learning (RL) aims to maximize the expected total reward, while the risk of uncertain outcomes needs to be controlled to ensure reliable performance in a risk-averse setting. In this paper, we consider the problem of maximizing dynamic risk of a sequence of rewards in infinite-horizon Markov Decision Processes (MDPs). We adapt the Expected Conditional Risk Measures (ECRMs) to the infinite-horizon risk-averse MDP and prove its time consistency. Using a convex combination of expectation and conditional value-at-risk (CVaR) as a special one-step conditional risk measure, we reformulate the risk-averse MDP as a risk-neutral counterpart with augmented action space and manipulation on the immediate rewards. We further prove that the related Bellman operator is a contraction mapping, which guarantees the convergence of any value-based RL algorithms. Accordingly, we develop a risk-averse deep Q-learning framework, and our numerical studies based on two simple MDPs show that the risk-averse setting can reduce the variance and enhance robustness of the results.
翻訳日:2023-01-18 17:57:30 公開日:2023-01-14
# 遠距離センサを用いた産業用ロボットの深部強化学習経路計画

Deep-Reinforcement-Learning-based Path Planning for Industrial Robots using Distance Sensors as Observation ( http://arxiv.org/abs/2301.05980v1 )

ライセンス: Link先を確認
Teham Bhuiyan, Linh K\"astner, Yifan Hu, Benno Kutschank and Jens Lambrecht(参考訳) 産業用ロボットは組み立てや溶接などの反復作業の効率が良いため、様々な製造環境で広く使われている。 これらのアプリケーションで一般的な問題は、障害物や他のロボットアームと衝突することなく目的地に到達することだ。 RRTのようなサンプリングベースの経路計画手法は、特に複雑な環境で長い計算時間を必要とする。 さらに、彼らが雇用されている環境を事前に知る必要がある。 新しい環境におけるアプローチを利用するには、時間とコストのかかるハイパーパラメータの設定において、面倒なエンジニアリング作業を行う必要がある。 一方,Deep Reinforcement Learningは未知の環境に対処し,新たな問題インスタンスを一般化し,効率的な動作計画問題の解き方を示す。 そこで本研究では,ロボットマニピュレータのための深部強化学習型モーションプランナを提案する。 いくつかの実験において,最先端のサンプリングベースプランナーに対する評価を行った。 その結果,経路長と実行時間の観点から,プランナーの優位性を示した。

Industrial robots are widely used in various manufacturing environments due to their efficiency in doing repetitive tasks such as assembly or welding. A common problem for these applications is to reach a destination without colliding with obstacles or other robot arms. Commonly used sampling-based path planning approaches such as RRT require long computation times, especially in complex environments. Furthermore, the environment in which they are employed needs to be known beforehand. When utilizing the approaches in new environments, a tedious engineering effort in setting hyperparameters needs to be conducted, which is time- and cost-intensive. On the other hand, Deep Reinforcement Learning has shown remarkable results in dealing with unknown environments, generalizing new problem instances, and solving motion planning problems efficiently. On that account, this paper proposes a Deep-Reinforcement-Learning-based motion planner for robotic manipulators. We evaluated our model against state-of-the-art sampling-based planners in several experiments. The results show the superiority of our planner in terms of path length and execution time.
翻訳日:2023-01-18 17:56:56 公開日:2023-01-14
# 有効モデル空間における量子シミュレーション(I):デジタル量子コンピュータを用いたハミルトン学習VQEとLipkin-Meshkov-Glickモデルへの応用

Quantum Simulations in Effective Model Spaces (I): Hamiltonian Learning-VQE using Digital Quantum Computers and Application to the Lipkin-Meshkov-Glick Model ( http://arxiv.org/abs/2301.05976v1 )

ライセンス: Link先を確認
Caroline E. P. Robin and Martin J. Savage(参考訳) 非相対論的量子多体系の量子シミュレーションにおける有効モデル空間の有用性は、相互作用フェルミオンのリプキン・メシュコフ・グリック模型の文脈で研究されている。 本稿では,実効的なハミルトニアンを同時に最適化し,実効モデル空間への絡み合いと関連する基底状態波動関数を再構成する,反復的ハイブリッド古典量子アルゴリズムであるhamiltonian learning variational quantum eigensolver (hl-vqe)を提案する。 HL-VQEは、ヒルベルト空間のかなりの部分にわたって、ハミルトニアン学習を伴わない単純なトランケーションと比較して、リプキン-メシュコフ-グリックモデル計算において指数関数的な改善をもたらす。 量子シミュレーションはhl-vqeアルゴリズムを実証するために行われ、量子ビットの数を粒子数ではなく実効モデル空間のサイズの$\log$でスケールする効率的なマッピングを用いて、小さな量子回路を持つ大規模システムを記述することができる。 IBMのQExperience量子コンピュータと1ビットと2ビットの有効モデル空間のシミュレータの実装は、古典的な予測を再現し、正確で正確な結果を提供する。 この研究は、ノイズの多い中間スケール量子(NISQ)デバイスの可能性を活用する核システム記述のための絡み合い駆動量子アルゴリズムの開発におけるステップを構成する。

The utility of effective model spaces in quantum simulations of non-relativistic quantum many-body systems is explored in the context of the Lipkin-Meshkov-Glick model of interacting fermions. We introduce an iterative hybrid-classical-quantum algorithm, Hamiltonian learning variational quantum eigensolver (HL-VQE), that simultaneously optimizes an effective Hamiltonian, thereby rearranging entanglement into the effective model space, and the associated ground-state wavefunction. HL-VQE is found to provide an exponential improvement in Lipkin-Meshkov-Glick model calculations, compared to a naive truncation without Hamiltonian learning, throughout a significant fraction of the Hilbert space. Quantum simulations are performed to demonstrate the HL-VQE algorithm, using an efficient mapping where the number of qubits scales with the $\log$ of the size of the effective model space, rather than the particle number, allowing for the description of large systems with small quantum circuits. Implementations on IBM's QExperience quantum computers and simulators for 1- and 2-qubit effective model spaces are shown to provide accurate and precise results, reproducing classical predictions. This work constitutes a step in the development of entanglement-driven quantum algorithms for the description of nuclear systems, that leverages the potential of noisy intermediate-scale quantum (NISQ) devices.
翻訳日:2023-01-18 17:56:43 公開日:2023-01-14
# LASSOによる一般化不変マッチング特性

Generalized Invariant Matching Property via LASSO ( http://arxiv.org/abs/2301.05975v1 )

ライセンス: Link先を確認
Kang Du and Yu Xiang(参考訳) 分散シフトの下での学習は難しい課題です。 1つの原則的アプローチは、構造因果モデルを通して不変原理を利用することである。 しかし、応答が介入されたときに不変原理が破られ、それは難しい設定となる。 最近の研究で、このシナリオに光を当てるために不変マッチングプロパティが開発され、有望なパフォーマンスを示している。 本研究では,内在空間の高次元問題を定式化することにより,不変マッチング特性を一般化する。 我々は,lassoの変種を活用して,既存のアルゴリズムを改良し,より堅牢で計算効率の高いアルゴリズムを提案する。

Learning under distribution shifts is a challenging task. One principled approach is to exploit the invariance principle via the structural causal models. However, the invariance principle is violated when the response is intervened, making it a difficult setting. In a recent work, the invariant matching property has been developed to shed light on this scenario and shows promising performance. In this work, we generalize the invariant matching property by formulating a high-dimensional problem with intrinsic sparsity. We propose a more robust and computation-efficient algorithm by leveraging a variant of Lasso, improving upon the existing algorithms.
翻訳日:2023-01-18 17:56:16 公開日:2023-01-14
# Compressがテスト中: ほぼ直線で強力なカーネルテスト

Compress Then Test: Powerful Kernel Testing in Near-linear Time ( http://arxiv.org/abs/2301.05974v1 )

ライセンス: Link先を確認
Carles Domingo-Enrich, Raaz Dwivedi, Lester Mackey(参考訳) カーネルの2サンプルテストは、$n$のサンプルポイントに基づいたディストリビューションのペアを識別するための強力なフレームワークを提供する。 しかし、既存のカーネルテストは、$n^2$の時間で実行されるか、実行時を改善するために未処理のパワーを犠牲にする。 これらの欠点に対処するために,サンプル圧縮に基づく高性能カーネルテストのための新しいフレームワークであるCompress Then Test (CTT)を紹介する。 CTTは、各$n$の点サンプルを小さいが証明可能な高忠実度コアセットに圧縮することで、高価な試験を安価に近似する。 標準的なカーネルやサブ指数分布では、CTTは2次時間テスト(同じ最適検出境界を回復する)の統計的挙動をほぼ直線時間で実行しながら継承する。 我々はこれらの進歩を、新しい電力分析によって正当化され、より安価な置換試験に結びつけ、時間-vsを改善した。 -低ランク近似に対する品質保証、特に識別するカーネルを特定するための高速な集約手順。 実データおよびシミュレーションデータを用いた実験では、CTTとその拡張は、出力損失のない最先端の近似MDDテストよりも20-200倍のスピードアップを提供する。

Kernel two-sample testing provides a powerful framework for distinguishing any pair of distributions based on $n$ sample points. However, existing kernel tests either run in $n^2$ time or sacrifice undue power to improve runtime. To address these shortcomings, we introduce Compress Then Test (CTT), a new framework for high-powered kernel testing based on sample compression. CTT cheaply approximates an expensive test by compressing each $n$ point sample into a small but provably high-fidelity coreset. For standard kernels and subexponential distributions, CTT inherits the statistical behavior of a quadratic-time test -- recovering the same optimal detection boundary -- while running in near-linear time. We couple these advances with cheaper permutation testing, justified by new power analyses; improved time-vs.-quality guarantees for low-rank approximation; and a fast aggregation procedure for identifying especially discriminating kernels. In our experiments with real and simulated data, CTT and its extensions provide 20--200x speed-ups over state-of-the-art approximate MMD tests with no loss of power.
翻訳日:2023-01-18 17:56:07 公開日:2023-01-14