このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200125となっている論文です。

PDF登録状況(公開日: 20200125)

TitleAuthorsAbstract論文公表日・翻訳日
# 二次発生器による不可逆的量子進化

Irreversible quantum evolution with quadratic generator: Review ( http://arxiv.org/abs/1912.13083v2 )

ライセンス: Link先を確認
A.E. Teretenkov(参考訳) ボソニックあるいはフェルミオン生成および消滅作用素において二次であるマルチモーダル生成器を持つgksl型方程式の結果を概観する。 このような方程式の一般的な形式が提示される。 ガウス解は、第一モーメントと第二モーメントの方程式の観点から得られる。 ソリューションの異なるアプローチについて論じる。

We review results on GKSL-type equations with multi-modal generators which are quadratic in bosonic or fermionic creation and annihilation operators. General forms of such equations are presented. The Gaussian solutions are obtained in terms of equations for the first and the second moments. Different approaches for their solutions are discussed.
翻訳日:2023-01-17 02:51:49 公開日:2020-01-25
# 効率的な平滑な非凸構成最適化のための確率的再帰変数削減

Stochastic Recursive Variance Reduction for Efficient Smooth Non-Convex Compositional Optimization ( http://arxiv.org/abs/1912.13515v2 )

ライセンス: Link先を確認
Huizhuo Yuan, Xiangru Lian, Ji Liu(参考訳) 確率的構成最適化は、強化学習やポートフォリオ管理における価値関数評価など、多くの重要な機械学習タスクで発生する。 目的関数は、確率関数の2つの期待の組み合わせであり、バニラ確率最適化問題よりも最適化がより困難である。 本稿では,一般平滑な非凸設定における確率的構成最適化について検討する。 最近開発された \textit{stochastic recursivegradient descent} というアイデアを用いて、sarah-compositional という新しいアルゴリズムを設計し、確率的構成最適化のための鋭いインクリメンタルな一階oracle (ifo) 複雑性の上限を証明した:$\mathcal{o}((n+m)^{1/2} \varepsilon^{-2})$ 有限和の場合とオンラインの場合$\mathcal{o}(\varepsilon^{-3})$ である。 このような複雑性は、非凸確率的構成最適化のifo複雑性結果の中で最良であることが知られており、最適であると考えられている。 我々の実験はアルゴリズムの理論的性能を検証する。

Stochastic compositional optimization arises in many important machine learning tasks such as value function evaluation in reinforcement learning and portfolio management. The objective function is the composition of two expectations of stochastic functions, and is more challenging to optimize than vanilla stochastic optimization problems. In this paper, we investigate the stochastic compositional optimization in the general smooth non-convex setting. We employ a recently developed idea of \textit{Stochastic Recursive Gradient Descent} to design a novel algorithm named SARAH-Compositional, and prove a sharp Incremental First-order Oracle (IFO) complexity upper bound for stochastic compositional optimization: $\mathcal{O}((n+m)^{1/2} \varepsilon^{-2})$ in the finite-sum case and $\mathcal{O}(\varepsilon^{-3})$ in the online case. Such a complexity is known to be the best one among IFO complexity results for non-convex stochastic compositional optimization, and is believed to be optimal. Our experiments validate the theoretical performance of our algorithm.
翻訳日:2023-01-16 20:33:16 公開日:2020-01-25
# DeepBeat: ウェアラブルデバイスにおける信号品質と不整脈検出を評価するマルチタスクディープラーニングアプローチ

DeepBeat: A multi-task deep learning approach to assess signal quality and arrhythmia detection in wearable devices ( http://arxiv.org/abs/2001.00155v2 )

ライセンス: Link先を確認
Jessica Torres Soto, Euan Ashley(参考訳) ウェアラブルデバイスは、ステップ数、エネルギー消費、心拍数などの生理的測定を理論的に連続的に監視できる。 ウェアラブルデバイスからの心房細動のような異常な心臓リズムの分類は大きな可能性を秘めているが、商用アルゴリズムはプロプライエタリであり、ノイズが未解決の課題である手首の緑色のスペクトルledセンサーから得られる心拍変動に焦点をあてる傾向がある。 本稿では,心房細動(af)のリアルタイム検出のために,ウェアラブルフォトプレチモグラフィ装置における信号品質と不整脈イベント検出を評価するマルチタスク深層学習法を開発した。 我々は,3つのウェアラブルデバイスから100人以上の個人から,500万以上のラベル付き信号を収集したデータセット上で,ラベル付けされていない生理的信号と微調整をシミュレーションした100万以上のアルゴリズムをトレーニングした。 従来のランダムフォレストベースアプローチ (precision:0.24, recall:0.58, f1:0.34, auprc:0.44) と単一タスクcnn (precision:0.59, recall:0.69, f1:0.64, auprc:0.68) と比較して,コンボリューショナルデノイジングオートエンコーダによる教師なし転送学習を用いたアーキテクチャは,rest参加者のaf検出性能を劇的に改善している(pr:0.94, rc:0.98, f1:0.96, auprc:0.96, auprc:0.96)。 さらに,独立に設計した装置から抽出したデータを用いて,前向きに導出された被検体の複製コホート上でのアルゴリズム性能を検証する。 2段階のトレーニングは、大きな注釈付きデータセットが不足している生物医学的応用に共通する不均衡なデータ問題に対処するのに役立つ。 結論として,シミュレーションとトランスファー学習を組み合わせることで,高レベルの精度を示すウェアラブル手首センサからのaf検出問題に対するマルチタスクアーキテクチャの開発と応用を行い,機械騒音の回避のための解決法を提案する。

Wearable devices enable theoretically continuous, longitudinal monitoring of physiological measurements like step count, energy expenditure, and heart rate. Although the classification of abnormal cardiac rhythms such as atrial fibrillation from wearable devices has great potential, commercial algorithms remain proprietary and tend to focus on heart rate variability derived from green spectrum LED sensors placed on the wrist where noise remains an unsolved problem. Here, we develop a multi-task deep learning method to assess signal quality and arrhythmia event detection in wearable photoplethysmography devices for real-time detection of atrial fibrillation (AF). We train our algorithm on over one million simulated unlabeled physiological signals and fine-tune on a curated dataset of over 500K labeled signals from over 100 individuals from 3 different wearable devices. We demonstrate that in comparison with a traditional random forest-based approach (precision:0.24, recall:0.58, f1:0.34, auPRC:0.44) and a single task CNN (precision:0.59, recall:0.69, f1:0.64, auPRC:0.68) our architecture using unsupervised transfer learning through convolutional denoising autoencoders dramatically improves the performance of AF detection in participants at rest (pr:0.94, rc:0.98, f1:0.96, auPRC:0.96). In addition, we validate algorithm performance on a prospectively derived replication cohort of ambulatory subjects using data derived from an independently engineered device. We show that two-stage training can help address the unbalanced data problem common to biomedical applications where large well-annotated datasets are scarce. In conclusion, though a combination of simulation and transfer learning and we develop and apply a multitask architecture to the problem of AF detection from wearable wrist sensors demonstrating high levels of accuracy and a solution for the vexing challenge of mechanical noise.
翻訳日:2023-01-16 09:20:30 公開日:2020-01-25
# 予測外のイベントと条件に反応するための自律システム設計原則の開発

Expecting the Unexpected: Developing Autonomous-System Design Principles for Reacting to Unpredicted Events and Conditions ( http://arxiv.org/abs/2001.06047v3 )

ライセンス: Link先を確認
Assaf Marron, Lior Limonad, Sarah Pollack, and David Harel(参考訳) 自律システムを開発する際、エンジニアや他のステークホルダーは、予測可能なすべてのイベントや状況に対するシステムの準備に多大な努力を払っています。 しかし、これらのシステムはまだ設計時に考慮されなかった出来事や状況に遭遇することに縛られている。 安全、コスト、倫理といった理由から、これらの新しい状況が初対面時に正しく処理されることがしばしば望まれる。 本稿では、まず、現実の世界における新しい発明、世界規模のシステム展開と利用の多様性、そして設計時に無視されると思われる複数の予期せぬ事象が同時に起こるという不可避な確率などによって、予測できない事象と状況が常に存在するという立場を正当化する。 そして、この予測不可能性にもかかわらず、これらのイベントと条件を扱うことは実際に可能であると論じる。 したがって、前もって適用すれば、将来、予期せぬ状況でシステムが対処できる設計原則を提示し、例示します。 本研究は, 次世代自律システム開発における工学的原則の確立に向けて, 本研究の成果と, 予想外のさらなる理論的研究が, どのように貢献するかを論じる。

When developing autonomous systems, engineers and other stakeholders make great effort to prepare the system for all foreseeable events and conditions. However, these systems are still bound to encounter events and conditions that were not considered at design time. For reasons like safety, cost, or ethics, it is often highly desired that these new situations be handled correctly upon first encounter. In this paper we first justify our position that there will always exist unpredicted events and conditions, driven among others by: new inventions in the real world; the diversity of world-wide system deployments and uses; and, the non-negligible probability that multiple seemingly unlikely events, which may be neglected at design time, will not only occur, but occur together. We then argue that despite this unpredictability property, handling these events and conditions is indeed possible. Hence, we offer and exemplify design principles that when applied in advance, can enable systems to deal, in the future, with unpredicted circumstances. We conclude with a discussion of how this work and a broader theoretical study of the unexpected can contribute toward a foundation of engineering principles for developing trustworthy next-generation autonomous systems.
翻訳日:2023-01-11 00:02:22 公開日:2020-01-25
# MixTConv: 効率的なアクションリコグニオンのための混合時間畳み込みカーネル

MixTConv: Mixed Temporal Convolutional Kernels for Efficient Action Recogntion ( http://arxiv.org/abs/2001.06769v3 )

ライセンス: Link先を確認
Kaiyu Shan, Yongtao Wang, Zhuoying Wang, Tingting Liang, Zhi Tang, Ying Chen, and Yangyan Li(参考訳) アクション認識のためのビデオの時空間的特徴を効率的に抽出するために、ほとんどの最先端手法は1次元時間的畳み込みを従来の2次元CNNバックボーンに統合する。 しかし、いずれも固定されたカーネルサイズ(すなわちネットワーク構築ブロック)の1次元時間的畳み込みを利用するため、長期的および短期的両方のアクションを扱うための最適時間的モデリング能力を持つ。 この問題に対処するために,まず1次元時間畳み込みフィルタのカーネルサイズの違いの影響について検討する。 次に,カーネルサイズが異なる複数の深さ方向の1次元畳み込みフィルタからなる混合時相畳み込み(mixtconv)と呼ばれる単純かつ効率的な演算を提案する。 従来の2D CNNバックボーンであるResNet-50にMixTConvを組み込むことで,MSTNetと名づけられた動作認識のための効率的なネットワークアーキテクチャを提案し,複数のベンチマークで最新の結果を得た。

To efficiently extract spatiotemporal features of video for action recognition, most state-of-the-art methods integrate 1D temporal convolution into a conventional 2D CNN backbone. However, they all exploit 1D temporal convolution of fixed kernel size (i.e., 3) in the network building block, thus have suboptimal temporal modeling capability to handle both long-term and short-term actions. To address this problem, we first investigate the impacts of different kernel sizes for the 1D temporal convolutional filters. Then, we propose a simple yet efficient operation called Mixed Temporal Convolution (MixTConv), which consists of multiple depthwise 1D convolutional filters with different kernel sizes. By plugging MixTConv into the conventional 2D CNN backbone ResNet-50, we further propose an efficient and effective network architecture named MSTNet for action recognition, and achieve state-of-the-art results on multiple benchmarks.
翻訳日:2023-01-08 10:11:36 公開日:2020-01-25
# ターゲットシフトによる教師なし領域適応のための部分共有変分自動エンコーダ

Partially-Shared Variational Auto-encoders for Unsupervised Domain Adaptation with Target Shift ( http://arxiv.org/abs/2001.07895v3 )

ライセンス: Link先を確認
Ryuhei Takahashi, Atsushi Hashimoto, Motoharu Sonogashira, Masaaki Iiyama(参考訳) 本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。 ターゲットシフトは、ソースとターゲットドメイン間のラベル分布におけるミスマッチの問題である。 通常、ターゲットドメインのクラス不均衡として現れる。 実際には、これはUDAにおいて重要な問題であり、ターゲットドメインデータセットのラベルを知らないため、その分布がソースドメインデータセットのラベルと同じであるかどうかがわからない。 従来の多くのアプローチでは、平均的な最大誤差や敵の訓練を最小化して分布マッチングを達成しているが、これらのアプローチは分布において偶然を仮定し、目標シフトの状況下では機能しない。 最近のUDAアプローチでは、クラス境界に重点を置いており、そのいくつかはターゲットシフトに頑健だが、分類にのみ適用でき、回帰には適用できない。 UDAにおける目標シフト問題を克服するため,提案手法では,特徴分布マッチングの代わりにペアワイズ特徴アライメントを用いる部分共有変分オートエンコーダ(PS-VAE)を提案する。 PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。 ps-vaesの性能評価のために,クラス不均衡桁データセットを用いたuda(分類)と,ヒト-pose-estimation(回帰)における実測データからのudaの2つの実験を行った。 提案手法は,分類課題のクラス不均衡に対する頑健性を示し,回帰課題の他の手法よりも高いマージンを示した。

This paper proposes a novel approach for unsupervised domain adaptation (UDA) with target shift. Target shift is a problem of mismatch in label distribution between source and target domains. Typically it appears as class-imbalance in target domain. In practice, this is an important problem in UDA; as we do not know labels in target domain datasets, we do not know whether or not its distribution is identical to that in the source domain dataset. Many traditional approaches achieve UDA with distribution matching by minimizing mean maximum discrepancy or adversarial training; however these approaches implicitly assume a coincidence in the distributions and do not work under situations with target shift. Some recent UDA approaches focus on class boundary and some of them are robust to target shift, but they are only applicable to classification and not to regression. To overcome the target shift problem in UDA, the proposed method, partially shared variational autoencoders (PS-VAEs), uses pair-wise feature alignment instead of feature distribution matching. PS-VAEs inter-convert domain of each sample by a CycleGAN-based architecture while preserving its label-related content. To evaluate the performance of PS-VAEs, we carried out two experiments: UDA with class-unbalanced digits datasets (classification), and UDA from synthesized data to real observation in human-pose-estimation (regression). The proposed method presented its robustness against the class-imbalance in the classification task, and outperformed the other methods in the regression task with a large margin.
翻訳日:2023-01-07 18:40:46 公開日:2020-01-25
# 属性による人物再同定の実証的研究

An Empirical Study of Person Re-Identification with Attributes ( http://arxiv.org/abs/2002.03752v1 )

ライセンス: Link先を確認
Vikram Shree, Wei-Lun Chao and Mark Campbell(参考訳) 人物再識別は、その人物の画像をクエリとして与えて、画像収集から人物を識別することを目的としている。 しかしながら、クエリイメージの優先順位ライブラリがないため、他のモダリティからの情報を頼らなければならないような、現実のシナリオはたくさんあります。 本稿では,興味のある人物(POI)を視覚的属性の集合として記述し,検索を行う属性に基づく手法を提案する。 複数のアルゴリズムを比較し、属性の品質がパフォーマンスに与える影響を分析する。 先行研究は主に専門家が注釈付けした高精度な属性に頼っているが、人間の対象による調査を行い、特定の視覚的属性が人間の観察者によって一貫して説明できないことを明らかにする。 重要な結論は、専門的属性ではなく専門的属性によって達成されるパフォーマンスは、人物再同定のための属性ベースのアプローチの現在の状況をより忠実に示す指標である、ということである。

Person re-identification aims to identify a person from an image collection, given one image of that person as the query. There is, however, a plethora of real-life scenarios where we may not have a priori library of query images and therefore must rely on information from other modalities. In this paper, an attribute-based approach is proposed where the person of interest (POI) is described by a set of visual attributes, which are used to perform the search. We compare multiple algorithms and analyze how the quality of attributes impacts the performance. While prior work mostly relies on high precision attributes annotated by experts, we conduct a human-subject study and reveal that certain visual attributes could not be consistently described by human observers, making them less reliable in real applications. A key conclusion is that the performance achieved by non-expert attributes, instead of expert-annotated ones, is a more faithful indicator of the status quo of attribute-based approaches for person re-identification.
翻訳日:2023-01-07 00:25:51 公開日:2020-01-25
# ブロックチェーン上の人工知能のための有用な仕事の証明

A Proof of Useful Work for Artificial Intelligence on the Blockchain ( http://arxiv.org/abs/2001.09244v1 )

ライセンス: Link先を確認
Andrei Lihu, Jincheng Du, Igor Barjaktarevic, Patrick Gerzanics and Mark Harvilla(参考訳) Bitcoinマイニングは無駄でリソース集約的なプロセスだ。 ブロックチェーンにトランザクションブロックを追加するために、採掘者はかなりのエネルギーを消費する。 ビットコインプロトコルは'proof of work'(pow)と呼ばれ、宝くじに似ており、基礎となる計算作業は役に立たない。 本稿では,ブロックチェーン上での機械学習モデルのトレーニングに基づく,新たなpouw(proof of useful work)プロトコルについて述べる。 鉱山労働者は、正直なmlトレーニング作業をした後、新しいコインを作る機会を得る。 クライアントはタスクを提出し、すべてのトレーニングコントリビュータに支払います。 これは、システムが宝くじの手続きにのみ依存しないため、ネットワークに参加するための追加のインセンティブである。 コンセンサスプロトコルを使うことで、関係者は分散環境で有用な作業を注文、完了、検証することができます。 役に立つ仕事を報奨し、悪役を罰する仕組みを概説する。 ブロックチェーンのセキュリティを利用して、より良いAIシステムを構築することを目指している。

Bitcoin mining is a wasteful and resource-intensive process. To add a block of transactions to the blockchain, miners spend a considerable amount of energy. The Bitcoin protocol, named 'proof of work' (PoW), resembles a lottery and the underlying computational work is not useful otherwise. In this paper, we describe a novel 'proof of useful work' (PoUW) protocol based on training a machine learning model on the blockchain. Miners get a chance to create new coins after performing honest ML training work. Clients submit tasks and pay all training contributors. This is an extra incentive to participate in the network because the system does not rely only on the lottery procedure. Using our consensus protocol, interested parties can order, complete, and verify useful work in a distributed environment. We outline mechanisms to reward useful work and punish malicious actors. We aim to build better AI systems using the security of the blockchain.
翻訳日:2023-01-07 00:25:18 公開日:2020-01-25
# 逆例 誘導神経合成

CounterExample Guided Neural Synthesis ( http://arxiv.org/abs/2001.09245v1 )

ライセンス: Link先を確認
Elizabeth Polgreen, Ralph Abboud, Daniel Kroening(参考訳) プログラム合成は、仕様からプログラムを生成することである。 正しい合成は困難であり、形式的な保証を提供するメソッドはスケーラビリティの問題に苦しむ。 一方、ニューラルネットワークは、サンプルからすばやくプログラムを生成することができるが、彼らが出力するプログラムが論理的仕様を満たすことを保証できない。 この研究では、ニューラルネットワークと形式的推論を組み合わせる:後者を使用することで、論理仕様をニューラルネットワークを正しい解へと導く一連の例に変換し、返却された解が形式的仕様を満たすことを保証する。 本手法をループ不変量の合成に適用し,SMTを用いた既存の解法とニューラルネットワークを用いた既存の解法との比較を行う。 その結果,形式的推論に基づくガイダンスにより,ニューラルネットワークの性能が大幅に向上し,解決可能なベンチマークの数がほぼ倍増することが示された。

Program synthesis is the generation of a program from a specification. Correct synthesis is difficult, and methods that provide formal guarantees suffer from scalability issues. On the other hand, neural networks are able to generate programs from examples quickly but are unable to guarantee that the program they output actually meets the logical specification. In this work we combine neural networks with formal reasoning: using the latter to convert a logical specification into a sequence of examples that guides the neural network towards a correct solution, and to guarantee that any solution returned satisfies the formal specification. We apply our technique to synthesising loop invariants and compare the performance to existing solvers that use SMT and existing techniques that use neural networks. Our results show that the formal reasoning based guidance improves the performance of the neural network substantially, nearly doubling the number of benchmarks it can solve.
翻訳日:2023-01-07 00:25:05 公開日:2020-01-25
# コスト関数の不確実性下における局所最適実演からの学習制約

Learning Constraints from Locally-Optimal Demonstrations under Cost Function Uncertainty ( http://arxiv.org/abs/2001.09336v1 )

ライセンス: Link先を確認
Glen Chou, Necmiye Ozay, Dmitry Berenson(参考訳) 本稿では,最適化されたコスト関数が学習者に不確実な地域最適実証からパラメトリック制約を学習するアルゴリズムを提案する。 本手法では,混合整数線形プログラム(MILP)における実演のKKT最適条件を用いて,実演の局所的最適性に整合した制約を,既知の制約パラメータ化を用いて学習するか,あるいは実演と整合したパラメータ化を漸進的に成長させることにより学習する。 我々は,回収された安全/安全でない集合の保存性に関する理論的保証を提供し,局所最適デモンストレーションを用いた制約学習可能性の限界を分析する。 本手法は,7自由度アームおよび4自由度モデルの制約を学習することにより,高次元制約とシステムに対する評価を行い,制約学習の手法よりも優れており,環境下での新しい制約満足軌道計画に効果的に利用できることを示す。

We present an algorithm for learning parametric constraints from locally-optimal demonstrations, where the cost function being optimized is uncertain to the learner. Our method uses the Karush-Kuhn-Tucker (KKT) optimality conditions of the demonstrations within a mixed integer linear program (MILP) to learn constraints which are consistent with the local optimality of the demonstrations, by either using a known constraint parameterization or by incrementally growing a parameterization that is consistent with the demonstrations. We provide theoretical guarantees on the conservativeness of the recovered safe/unsafe sets and analyze the limits of constraint learnability when using locally-optimal demonstrations. We evaluate our method on high-dimensional constraints and systems by learning constraints for 7-DOF arm and quadrotor examples, show that it outperforms competing constraint-learning approaches, and can be effectively used to plan new constraint-satisfying trajectories in the environment.
翻訳日:2023-01-07 00:24:09 公開日:2020-01-25
# 教師なしSim-to-Real画像翻訳における受容場の役割について

On the Role of Receptive Field in Unsupervised Sim-to-Real Image Translation ( http://arxiv.org/abs/2001.09257v1 )

ライセンス: Link先を確認
Nikita Jaipuria, Shubh Gupta, Praveen Narayanan, Vidya N. Murali(参考訳) GAN(Generative Adversarial Networks)は現在、フォトリアリスティック画像合成に広く利用されている。 シミュレーション画像が現実画像(sim-to-real)に変換される必要のあるアプリケーションでは、2つのドメインからの非ペアデータでトレーニングされたganは、画像が1つのドメインから別のドメインに変換されるため、セマンティックコンテンツ保持の失敗に影響を受けやすい。 この障害モードは、実際のデータがコンテンツ多様性に欠けており、2つのドメイン間のコンテンツ \emph{mismatch} が発生する場合により顕著である。 本稿では,不一致データを用いた教師なし画像・画像翻訳における識別器の受容領域の役割について検討し,その意味的内容保持への影響について検討する。 多様な不一致データセット上のGANモデルによる最先端結合型変分自動エンコーダ(VAE)の判別器アーキテクチャによる実験により、判別器受容領域は生成した画像の意味的内容の相違と直接相関していることが示された。

Generative Adversarial Networks (GANs) are now widely used for photo-realistic image synthesis. In applications where a simulated image needs to be translated into a realistic image (sim-to-real), GANs trained on unpaired data from the two domains are susceptible to failure in semantic content retention as the image is translated from one domain to the other. This failure mode is more pronounced in cases where the real data lacks content diversity, resulting in a content \emph{mismatch} between the two domains - a situation often encountered in real-world deployment. In this paper, we investigate the role of the discriminator's receptive field in GANs for unsupervised image-to-image translation with mismatched data, and study its effect on semantic content retention. Experiments with the discriminator architecture of a state-of-the-art coupled Variational Auto-Encoder (VAE) - GAN model on diverse, mismatched datasets show that the discriminator receptive field is directly correlated with semantic content discrepancy of the generated image.
翻訳日:2023-01-07 00:18:37 公開日:2020-01-25
# 動画で見る、より身近に近づいた! 動画のテンポラリなグラウンド

Look Closer to Ground Better: Weakly-Supervised Temporal Grounding of Sentence in Video ( http://arxiv.org/abs/2001.09308v1 )

ライセンス: Link先を確認
Zhenfang Chen, Lin Ma, Wenhan Luo, Peng Tang, Kwan-Yee K. Wong(参考訳) 本稿では,映像中の文の弱教師付き時間的接地問題について検討する。 具体的には,未検索の映像と問合せ文を与えられた場合,学習中の時間的アノテーションに依存せず,意味的に問合せ文に対応する映像の時間的セグメントを局所化することを目的としている。 本稿では,この問題を粗大な方法で解くための2段階モデルを提案する。 粗い段階では,まず,複数スケールスライディングウインドウを用いた固定長時間提案のセットを生成し,その視覚特徴と文の特徴を一致させ,最も一致した提案を粗い接地結果として識別する。 ファインステージでは、ベストマッチング提案におけるフレームの視覚的特徴と文の特徴との微粒なマッチングを行い、微粒な接地結果の正確なフレーム境界を特定する。 ActivityNet CaptionsデータセットとCharades-STAデータセットに関する総合的な実験は、2段階のモデルが魅力的なパフォーマンスを実現していることを示している。

In this paper, we study the problem of weakly-supervised temporal grounding of sentence in video. Specifically, given an untrimmed video and a query sentence, our goal is to localize a temporal segment in the video that semantically corresponds to the query sentence, with no reliance on any temporal annotation during training. We propose a two-stage model to tackle this problem in a coarse-to-fine manner. In the coarse stage, we first generate a set of fixed-length temporal proposals using multi-scale sliding windows, and match their visual features against the sentence features to identify the best-matched proposal as a coarse grounding result. In the fine stage, we perform a fine-grained matching between the visual features of the frames in the best-matched proposal and the sentence features to locate the precise frame boundary of the fine grounding result. Comprehensive experiments on the ActivityNet Captions dataset and the Charades-STA dataset demonstrate that our two-stage model achieves compelling performance.
翻訳日:2023-01-07 00:17:57 公開日:2020-01-25
# シームズマルチタスクCNNを用いた顔画像からの嗜好に基づく類似性学習

Learning Preference-Based Similarities from Face Images using Siamese Multi-Task CNNs ( http://arxiv.org/abs/2001.09371v1 )

ライセンス: Link先を確認
Nils Gessert and Alexander Schlaefer(参考訳) オンラインデートはここ数十年で一般的になっている。 オンラインデートプラットフォームにとって重要な課題は、ユーザに適したマッチングを決定することだ。 多くのデートサービスは、自己報告されたユーザー特性とマッチングの好みに依存している。 同時に、一部のサービスはユーザイメージと、それゆえ最初の視覚的な好みに大きく依存している。 特に後者のアプローチでは、以前の研究では自動マッチ推奨のためにユーザの視覚的な好みを捉えようと試みている。 これらのアプローチは主に、物理的な魅力が関係形成の重要な要因であり、個人の好み、関心、態度がほとんど無視されているという仮定に基づいている。 ディープラーニングのアプローチは、年齢、健康、さらには性格特性など、さまざまな特性を人間の顔からある程度予測できることを示している。 そこで本稿では,画像ベースマッチングの実現可能性について検討し,個人の関心や好み,態度とマッチングする。 提案手法は,顔画像のみに基づいて2人のユーザ間の類似度スコアを予測し,教師付きでこの問題にアプローチする。 類似度マッチングスコアの根拠は、ロマンチックな関係を形成するためのユーザの好み、興味、態度を捉えることを目的としたテストによって決定される。 イメージは、siameseのマルチタスクディープラーニングアーキテクチャによって処理される。 予測値と目標類似度スコアとの間に統計的に有意な相関関係が認められた。 以上の結果から,顔画像からの興味,好み,態度といった面での類似性の学習がある程度実現可能であることが示唆された。

Online dating has become a common occurrence over the last few decades. A key challenge for online dating platforms is to determine suitable matches for their users. A lot of dating services rely on self-reported user traits and preferences for matching. At the same time, some services largely rely on user images and thus initial visual preference. Especially for the latter approach, previous research has attempted to capture users' visual preferences for automatic match recommendation. These approaches are mostly based on the assumption that physical attraction is the key factor for relationship formation and personal preferences, interests, and attitude are largely neglected. Deep learning approaches have shown that a variety of properties can be predicted from human faces to some degree, including age, health and even personality traits. Therefore, we investigate the feasibility of bridging image-based matching and matching with personal interests, preferences, and attitude. We approach the problem in a supervised manner by predicting similarity scores between two users based on images of their faces only. The ground-truth for the similarity matching scores is determined by a test that aims to capture users' preferences, interests, and attitude that are relevant for forming romantic relationships. The images are processed by a Siamese Multi-Task deep learning architecture. We find a statistically significant correlation between predicted and target similarity scores. Thus, our results indicate that learning similarities in terms of interests, preferences, and attitude from face images appears to be feasible to some degree.
翻訳日:2023-01-07 00:16:58 公開日:2020-01-25
# サイリールールは、安定した執行とコンプライアンス行動を学ぶためのエージェントの能力を改善する

Silly rules improve the capacity of agents to learn stable enforcement and compliance behaviors ( http://arxiv.org/abs/2001.09318v1 )

ライセンス: Link先を確認
Raphael K\"oster, Dylan Hadfield-Menell, Gillian K. Hadfield, Joel Z. Leibo(参考訳) 社会はどのように社会規範を強制・遵守するか? 本稿では,マルチエージェント強化学習環境に実装された飼料ゲームにおける社会規範の学習ダイナミクスとコンプライアンスの出現と適用について考察する。 この時空間拡張ゲームでは、個人は複雑なベリー採集ポリシーを実装し、特定のベリーの種類をカバーする社会タブーに対してトランスグレッションを処罰するインセンティブを与える。 有毒なベリーを食べるときの利益がタブーであることは、他のエージェントによって罰せられることを意味しており、これは遅れた健康影響を発見する際のクレジット割り当て問題を克服するのに役立ちます。 しかし批判的に,無害なベリーを食べると罰を与えるタブーを新たに導入することで,エージェントがタブー違反を罰しタブーを遵守することを学ぶ速度と安定性が向上することを示した。 その結果、任意のタブー(「サイリールール」)が社会学習のダイナミクスを高め、学習の中期においてより良い結果をもたらすことが示唆された。 グループレベルの創発現象としてのノルマティビティの研究の文脈において、その結果について論じる。

How can societies learn to enforce and comply with social norms? Here we investigate the learning dynamics and emergence of compliance and enforcement of social norms in a foraging game, implemented in a multi-agent reinforcement learning setting. In this spatiotemporally extended game, individuals are incentivized to implement complex berry-foraging policies and punish transgressions against social taboos covering specific berry types. We show that agents benefit when eating poisonous berries is taboo, meaning the behavior is punished by other agents, as this helps overcome a credit-assignment problem in discovering delayed health effects. Critically, however, we also show that introducing an additional taboo, which results in punishment for eating a harmless berry, improves the rate and stability with which agents learn to punish taboo violations and comply with taboos. Counterintuitively, our results show that an arbitrary taboo (a "silly rule") can enhance social learning dynamics and achieve better outcomes in the middle stages of learning. We discuss the results in the context of studying normativity as a group-level emergent phenomenon.
翻訳日:2023-01-07 00:16:37 公開日:2020-01-25
# DL-Lite知識ベースの拡張と収縮について

On Expansion and Contraction of DL-Lite Knowledge Bases ( http://arxiv.org/abs/2001.09365v1 )

ライセンス: Link先を確認
Dmitriy Zheleznyakov, Evgeny Kharlamov, Werner Nutt, Diego Calvanese(参考訳) 知識ベース(KB)は静的なエンティティではない。 この知識の進化を反映するために、KBは新たな知識で拡張され、古い知識から収縮されるべきである。 この問題は命題ではよく研究されているが、一階のkbsでははるかに少ない。 本研究では, Web Ontology Language OWL 2 QL の抽出可能なフラグメント OWL 2 QL の基盤となる記述論理群 (DL) であるDL-Lite で表される KB の知識拡張と収縮について検討する。 我々は、進化が尊重すべき新しい知識進化の枠組みと自然な仮定から始まり、我々の仮定を確立されたAGMの仮定と比較する。 次に,提案理論の展開と縮約に関する既知のモデルと公式に基づくアプローチを考察し,dl-lite の場合にどのように適用できるかを示す。 特に、モデルに基づくアプローチの本質的な制限を示す:それらのうちのいくつかは我々が確立した仮定を尊重していないという事実に加えて、KBの構造的性質を無視している。 DL-Lite KB の進化は DL-Lite では捉えられない。 さらに, DL-Liteの拡張と縮小には, 良く知られた公式ベースのアプローチが適していないことを示し, 計算の複雑さが高いか, DL-Liteでは表現できない論理理論を生成する。 そこで我々は,我々の原理を尊重し,進化をDL-Liteで表現できる新しい公式に基づくアプローチを提案する。 そこで本研究では,DL-Lite KB の進化が実データにのみ影響を及ぼす場合の多項式時間決定論的アルゴリズムを提案する。

Knowledge bases (KBs) are not static entities: new information constantly appears and some of the previous knowledge becomes obsolete. In order to reflect this evolution of knowledge, KBs should be expanded with the new knowledge and contracted from the obsolete one. This problem is well-studied for propositional but much less for first-order KBs. In this work we investigate knowledge expansion and contraction for KBs expressed in DL-Lite, a family of description logics (DLs) that underlie the tractable fragment OWL 2 QL of the Web Ontology Language OWL 2. We start with a novel knowledge evolution framework and natural postulates that evolution should respect, and compare our postulates to the well-established AGM postulates. We then review well-known model and formula-based approaches for expansion and contraction for propositional theories and show how they can be adapted to the case of DL-Lite. In particular, we show intrinsic limitations of model-based approaches: besides the fact that some of them do not respect the postulates we have established, they ignore the structural properties of KBs. This leads to undesired properties of evolution results: evolution of DL-Lite KBs cannot be captured in DL-Lite. Moreover, we show that well-known formula-based approaches are also not appropriate for DL-Lite expansion and contraction: they either have a high complexity of computation, or they produce logical theories that cannot be expressed in DL-Lite. Thus, we propose a novel formula-based approach that respects our principles and for which evolution is expressible in DL-Lite. For this approach we also propose polynomial time deterministic algorithms to compute evolution of DL-Lite KBs when evolution affects only factual data.
翻訳日:2023-01-07 00:16:16 公開日:2020-01-25
# Smoothed Max Poolingでキーワードと全体を検出する学習

Learning To Detect Keyword Parts And Whole By Smoothed Max Pooling ( http://arxiv.org/abs/2001.09246v1 )

ライセンス: Link先を確認
Hyun-Jin Park, Patrick Violette, Niranjan Subrahmanya(参考訳) 最大プール損失のスムーズ化とそのキーワードスポッティングシステムへの応用を提案する。 提案手法は、符号化器(キーワード部分を検出する)とデコーダ(キーワード全体を検出する)を半教師付きで共同で訓練する。 提案した損失関数により,LVCSR(Large vocabulary continuous speech recognition)のフレームレベルラベルに厳密に依存することなく,キーワードの一部と全体を検出するモデルのトレーニングが可能になる。 提案システムは,最適化性の向上により,[1]のベースラインキーワードスポッティングモデルより優れている。 さらに、LVCSRへの依存度が低いため、デバイス上での学習アプリケーションにも容易に適応できる。

We propose smoothed max pooling loss and its application to keyword spotting systems. The proposed approach jointly trains an encoder (to detect keyword parts) and a decoder (to detect whole keyword) in a semi-supervised manner. The proposed new loss function allows training a model to detect parts and whole of a keyword, without strictly depending on frame-level labeling from LVCSR (Large vocabulary continuous speech recognition), making further optimization possible. The proposed system outperforms the baseline keyword spotting model in [1] due to increased optimizability. Further, it can be more easily adapted for on-device learning applications due to reduced dependency on LVCSR.
翻訳日:2023-01-07 00:15:45 公開日:2020-01-25
# TiFL: タイアベースフェデレーション学習システム

TiFL: A Tier-based Federated Learning System ( http://arxiv.org/abs/2001.09249v1 )

ライセンス: Link先を確認
Zheng Chai, Ahsan Ali, Syed Zawad, Stacey Truex, Ali Anwar, Nathalie Baracaldo, Yi Zhou, Heiko Ludwig, Feng Yan, Yue Cheng(参考訳) フェデレーション学習(fl)は、プライバシー要件に違反することなく、多くのクライアント間で共有モデルを学ぶことを可能にする。 flの重要な特徴の1つは、計算能力と通信能力の違いと、異なるクライアント間でのデータ量と内容の違いによって、リソースとデータの両方に存在する不均一性である。 従来のFLシステムのトレーニング時間とモデル精度に,資源とデータの不均一性が大きな影響を与えることを示すケーススタディを行う。 そこで我々は,TiFLを提案する。TiFLはTierベースのフェデレートラーニングシステムで,トレーニング性能に基づいてクライアントを階層に分割し,トレーニングラウンド毎に同じ階層からクライアントを選択し,リソースとデータ量の不均一性に起因するストラグラー問題を緩和する。 非IID(Independent and Identical Distribution)データとリソースによる不均一性をさらに改善するため、TiFLは、観測されたトレーニング性能と精度の残量に基づいて、階層化をオンザフライで更新する適応層選択アプローチを採用している。 我々は、GoogleのFLアーキテクチャに従ってテストベッドでTiFLをプロトタイプし、人気のあるベンチマークと最先端のFLベンチマークLEAFを用いて評価した。 実験により,TiFLは様々な異種条件下で従来のFLよりも優れた性能を示した。 提案した適応階層選択ポリシでは,TiFLは,同じ(場合によってはより優れた)テスト精度を維持しながら,より高速なトレーニング性能を実現する。

Federated Learning (FL) enables learning a shared model across many clients without violating the privacy requirements. One of the key attributes in FL is the heterogeneity that exists in both resource and data due to the differences in computation and communication capacity, as well as the quantity and content of data among different clients. We conduct a case study to show that heterogeneity in resource and data has a significant impact on training time and model accuracy in conventional FL systems. To this end, we propose TiFL, a Tier-based Federated Learning System, which divides clients into tiers based on their training performance and selects clients from the same tier in each training round to mitigate the straggler problem caused by heterogeneity in resource and data quantity. To further tame the heterogeneity caused by non-IID (Independent and Identical Distribution) data and resources, TiFL employs an adaptive tier selection approach to update the tiering on-the-fly based on the observed training performance and accuracy overtime. We prototype TiFL in a FL testbed following Google's FL architecture and evaluate it using popular benchmarks and the state-of-the-art FL benchmark LEAF. Experimental evaluation shows that TiFL outperforms the conventional FL in various heterogeneous conditions. With the proposed adaptive tier selection policy, we demonstrate that TiFL achieves much faster training performance while keeping the same (and in some cases - better) test accuracy across the board.
翻訳日:2023-01-07 00:09:17 公開日:2020-01-25
# ロバスト部分モジュラー最小化と協調モデリングへの応用

Robust Submodular Minimization with Applications to Cooperative Modeling ( http://arxiv.org/abs/2001.09360v1 )

ライセンス: Link先を確認
Rishabh Iyer(参考訳) ロバスト最適化は、機械学習アプリケーションにおいてますます重要になっている。 本稿では,組合せ制約を受けるロバストな部分モジュラル最小化の問題について述べる。 制約付き部分モジュラー最小化は、画像セグメンテーションにおける協調カット、画像対応における協調マッチングなど、いくつかの応用で発生する。 これらのモデルの多くは、データポイントのクラスタリング(例えば画像のピクセル)上で定義されており、これらのモデルがデータの摂動と不確実性に頑健であることは重要である。 既存のいくつかの論文はロバストな部分モジュラー最大化を研究しているが、我々の論文は濃度、ナップサック、マトロイド、カット、パス、マッチング、木といったグラフベースの制約を含む幅広い組合せ制約の下で最小化バージョンを研究した最初の研究である。 いずれの場合も、スケーラブルな近似アルゴリズムを提供し、硬さ境界を研究する。 最後に,合成および実世界のデータセットに対するアルゴリズムの有用性を実証的に実証する。

Robust Optimization is becoming increasingly important in machine learning applications. This paper studies the problem of robust submodular minimization subject to combinatorial constraints. Constrained Submodular Minimization arises in several applications such as co-operative cuts in image segmentation, co-operative matchings in image correspondence, etc. Many of these models are defined over clusterings of data points (for example pixels in images), and it is important for these models to be robust to perturbations and uncertainty in the data. While several existing papers have studied robust submodular maximization, ours is the first work to study the minimization version under a broad range of combinatorial constraints including cardinality, knapsack, matroid as well as graph-based constraints such as cuts, paths, matchings, and trees. In each case, we provide scalable approximation algorithms and also study hardness bounds. Finally, we empirically demonstrate the utility of our algorithms on synthetic and real-world datasets.
翻訳日:2023-01-07 00:08:21 公開日:2020-01-25
# ベイズ特徴割当モデルのための粒子ギブスサンプリング

Particle-Gibbs Sampling For Bayesian Feature Allocation Models ( http://arxiv.org/abs/2001.09367v1 )

ライセンス: Link先を確認
Alexandre Bouchard-C\^ot\'e and Andrew Roth(参考訳) ベイジアン特徴割り当てモデルは、組合せ潜在構造を持つデータをモデル化するための一般的なツールである。 これらのモデルの厳密な推論は一般に難解であるため、実践者は一般に後部推論にマルコフ・チェイン・モンテカルロ法(MCMC)を適用する。 最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。 これらの要素の賢い更新は、機能は通常強く相関しているため、非効率である。 この問題を解決するために,機能割り当て行列の全行を1回の移動で更新できるGibbsサンプルラを開発した。 しかし, このサンプルは, 計算複雑性が指数関数的に増大するにつれて, 多数の特徴を持つモデルでは実用的ではない。 我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。 提案手法と標準ギブスサンプリング器の性能を,特徴割り当てモデルから得られた合成データを用いて比較した。 その結果,pg法を用いて行を賢明に更新することで,機能割当モデルに対するサンプルの性能が大幅に向上することが示唆された。

Bayesian feature allocation models are a popular tool for modelling data with a combinatorial latent structure. Exact inference in these models is generally intractable and so practitioners typically apply Markov Chain Monte Carlo (MCMC) methods for posterior inference. The most widely used MCMC strategies rely on an element wise Gibbs update of the feature allocation matrix. These element wise updates can be inefficient as features are typically strongly correlated. To overcome this problem we have developed a Gibbs sampler that can update an entire row of the feature allocation matrix in a single move. However, this sampler is impractical for models with a large number of features as the computational complexity scales exponentially in the number of features. We develop a Particle Gibbs sampler that targets the same distribution as the row wise Gibbs updates, but has computational complexity that only grows linearly in the number of features. We compare the performance of our proposed methods to the standard Gibbs sampler using synthetic data from a range of feature allocation models. Our results suggest that row wise updates using the PG methodology can significantly improve the performance of samplers for feature allocation models.
翻訳日:2023-01-07 00:08:03 公開日:2020-01-25
# デジタルバックプロパゲーションとpmd補償のためのモデルベース機械学習

Model-Based Machine Learning for Joint Digital Backpropagation and PMD Compensation ( http://arxiv.org/abs/2001.09277v1 )

ライセンス: Link先を確認
Christian H\"ager, Henry D. Pfister, Rick M. B\"utler, Gabriele Liga, Alex Alvarado(参考訳) マナコフ-pmd方程式の分割ステップ法をパラメータ化することで偏波多重化システムに対するモデルベース機械学習手法を提案する。 このアプローチは、ハードウェアフレンドリーなDBPと分散PMD補償を、PMDフリーケースに近い性能で実行する。

We propose a model-based machine-learning approach for polarization-multiplexed systems by parameterizing the split-step method for the Manakov-PMD equation. This approach performs hardware-friendly DBP and distributed PMD compensation with performance close to the PMD-free case.
翻訳日:2023-01-07 00:07:45 公開日:2020-01-25
# 競合相手からのノイズ低減:マルチリンクにおける側方抑制による単語検索

Reducing Noise from Competing Neighbours: Word Retrieval with Lateral Inhibition in Multilink ( http://arxiv.org/abs/2002.00730v1 )

ライセンス: Link先を確認
Aaron van Geffen(参考訳) マルチリンク(Multilink)は、単言語および多言語における異なるタスク状況下での単語検索の計算モデルである(Dijkstra et al., 2018)。 本研究では,Multilinkの語彙ネットワークに側方抑制を加えた。 パラメータは、イギリス、イギリス、オランダのレキシコンプロジェクトからの反応時間に基づいて決定された。 これらのデータセット全体の最大相関は0.643 (N=1,205) であった。 さらに, 側方抑制の付加によりシミュレーション自体が高速化された。 近隣研究(mulder et al., 2018)からの刺激に適合したモデルを用いて実験を行った。 側方抑制は multilink の相関を改善し, 総相関は 0.67 であった。 次に,言語間ホモグラフ(vanlangendonck et al. in press; goertz, 2018)に関する2つの研究から得られたデータを用いてシミュレーションを行い,モデルタスク/判断システムにおける側方抑制の役割を検討した。 その結果, 単語選択過程において側方抑制が重要な役割を担っているものの, これだけでは適切な応答選択はできないことがわかった。 この問題を解決するために, 言語間ホモグラフ, 認識, 言語固有の制御語の翻訳過程を考慮し, マルチリンクに新しいタスクコンポーネントを追加した。 その後のシミュレーション結果は、Goertz研究と非常によく似たパターンを示した。 実験データに対するシミュレーションデータの同型性は,反応時間とモデルサイクル時間との0.538(n=254)の全体相関と0.853(n=8)の条件パターン相関によってさらに検証された。 我々は,Multilinkが実験データ,特に抑制パラメータのタスク固有の設定を許容する場合に,優れた適合性が得られると結論付けた。

Multilink is a computational model for word retrieval in monolingual and multilingual individuals under different task circumstances (Dijkstra et al., 2018). In the present study, we added lateral inhibition to Multilink's lexical network. Parameters were fit on the basis of reaction times from the English, British, and Dutch Lexicon Projects. We found a maximum correlation of 0.643 (N=1,205) on these data sets as a whole. Furthermore, the simulations themselves became faster as a result of adding lateral inhibition. We tested the fitted model to stimuli from a neighbourhood study (Mulder et al., 2018). Lateral inhibition was found to improve Multilink's correlations for this study, yielding an overall correlation of 0.67. Next, we explored the role of lateral inhibition as part of the model's task/decision system by running simulations on data from two studies concerning interlingual homographs (Vanlangendonck et al., in press; Goertz, 2018). We found that, while lateral inhibition plays a substantial part in the word selection process, this alone is not enough to result in a correct response selection. To solve this problem, we added a new task component to Multilink, especially designed to account for the translation process of interlingual homographs, cognates, and language-specific control words. The subsequent simulation results showed patterns remarkably similar to those in the Goertz study. The isomorphicity of the simulated data to the empirical data was further attested by an overall correlation of 0.538 (N=254) between reaction times and simulated model cycle times, as well as a condition pattern correlation of 0.853 (N=8). We conclude that Multilink yields an excellent fit to empirical data, particularly when a task-specific setting of the inhibition parameters is allowed.
翻訳日:2023-01-07 00:07:12 公開日:2020-01-25
# mdpsにおける非マルコフ報酬モデルの学習

Learning Non-Markovian Reward Models in MDPs ( http://arxiv.org/abs/2001.09293v1 )

ライセンス: Link先を確認
Gavin Rens, Jean-Fran\c{c}ois Raskin(参考訳) エージェントが以前の一連のタスクを完了した後のみ報酬を受け取るという状況がある。 言い換えれば、エージェントが受け取る報酬は非マルコフ的である。 歴史に依存した報酬を表現する自然な、非常に一般的な方法の1つは、入力シーケンスから出力シーケンス(この場合は逆)を生成する有限状態オートマトン (Mealy machine) である。 我々の公式設定では、エージェントが進化する環境のダイナミクスをモデル化するマルコフ決定プロセス(MDP)と、このMDPと同期して非マルコフ報酬関数を形式化するミーリーマシンを考える。 MDPはエージェントによって知られているが、報酬関数はエージェントから未知であり、学習されなければならない。 非マルコフ報酬関数の学習は困難である。 この課題を克服するためのアプローチは,有限オートマトンを学ぶためのangluinのl*能動学習アルゴリズム,有限モデル仮説の適合性を確立するためのテスト手法,マルコフ(中間)報酬mdpの最適戦略を計算する最適化手法を慎重に組み合わせたものである。 また、我々のフレームワークがモンテカルロ木探索のような古典的ヒューリスティックとどのように組み合わせられるかを示す。 アルゴリズムと、AIの典型的な2つの例に関する予備実装について説明する。

There are situations in which an agent should receive rewards only after having accomplished a series of previous tasks. In other words, the reward that the agent receives is non-Markovian. One natural and quite general way to represent history-dependent rewards is via a Mealy machine; a finite state automaton that produces output sequences (rewards in our case) from input sequences (state/action observations in our case). In our formal setting, we consider a Markov decision process (MDP) that models the dynamic of the environment in which the agent evolves and a Mealy machine synchronised with this MDP to formalise the non-Markovian reward function. While the MDP is known by the agent, the reward function is unknown from the agent and must be learnt. Learning non-Markov reward functions is a challenge. Our approach to overcome this challenging problem is a careful combination of the Angluin's L* active learning algorithm to learn finite automata, testing techniques for establishing conformance of finite model hypothesis and optimisation techniques for computing optimal strategies in Markovian (immediate) reward MDPs. We also show how our framework can be combined with classical heuristics such as Monte Carlo Tree Search. We illustrate our algorithms and a preliminary implementation on two typical examples for AI.
翻訳日:2023-01-07 00:06:42 公開日:2020-01-25
# 低データ環境下での効率的な自然言語理解のための生成蒸留

Generation-Distillation for Efficient Natural Language Understanding in Low-Data Settings ( http://arxiv.org/abs/2002.00733v1 )

ライセンス: Link先を確認
Luke Melas-Kyriazi, George Han, Celine Liang(参考訳) 過去1年間で、大規模な言語モデル(LM)による伝達学習の出現は、幅広い自然言語理解タスクにおいて劇的なパフォーマンス向上をもたらした。 しかし、これらの大きなLMのサイズとメモリフットプリントは、多くのシナリオ(携帯電話など)で展開するのが困難である。 最近の研究では、知識蒸留が潜在的な解決策として指摘されており、与えられたタスクのトレーニングデータが豊富であれば、大きな(教師)LMを最小限の性能を失う小さなタスク固有(学生)ネットワークに蒸留することが可能である。 しかし、そのようなデータが乏しい場合には、蒸留によるトレーニングであっても、大規模な事前訓練されたLMとより小さなタスク固有モデルの間には大きなパフォーマンスギャップが残っている。 本稿では,(1)新しい(ラベルのない)トレーニング例を生成すること,(2)これらの例を用いて知識を小さなネットワークに抽出すること,の2つの方法を用いて,ジェネレーション蒸留と呼ばれる新たなトレーニング手法を用いて,このギャップを橋渡しする。 3つの低リソーステキスト分類datsetにおいて,300倍のパラメータを用いながらbertに匹敵する性能を実現し,3倍のパラメータを用いながら,テキスト分類のための蒸留に対する従来のアプローチを上回っている。

Over the past year, the emergence of transfer learning with large-scale language models (LM) has led to dramatic performance improvements across a broad range of natural language understanding tasks. However, the size and memory footprint of these large LMs makes them difficult to deploy in many scenarios (e.g. on mobile phones). Recent research points to knowledge distillation as a potential solution, showing that when training data for a given task is abundant, it is possible to distill a large (teacher) LM into a small task-specific (student) network with minimal loss of performance. However, when such data is scarce, there remains a significant performance gap between large pretrained LMs and smaller task-specific models, even when training via distillation. In this paper, we bridge this gap with a novel training approach, called generation-distillation, that leverages large finetuned LMs in two ways: (1) to generate new (unlabeled) training examples, and (2) to distill their knowledge into a small network using these examples. Across three low-resource text classification datsets, we achieve comparable performance to BERT while using 300x fewer parameters, and we outperform prior approaches to distillation for text classification while using 3x fewer parameters.
翻訳日:2023-01-07 00:00:18 公開日:2020-01-25
# イタリア語におけるWord2Vecの分析

An Analysis of Word2Vec for the Italian Language ( http://arxiv.org/abs/2001.09332v1 )

ライセンス: Link先を確認
Giovanni Di Gennaro, Amedeo Buonanno, Antonio Di Girolamo, Armando Ospedale, Francesco A.N. Palmieri, Gianfranco Fedele(参考訳) 単語表現は、機械にテキストを理解するように教えることを考えることができる単語間の意味的近接性のコーディングから、NLPタスクにおいて基本的なものである。 単語埋め込みの概念は広まってはいるが、英語以外の言語的文脈での成果は少ない。 本研究では、Word2Vecアルゴリズムのセマンティック能力を分析し、イタリア語への埋め込みを生成する。 エポック数、コンテキストウィンドウのサイズ、負のバックプロパゲーションされたサンプルの数といったパラメータの設定について検討する。

Word representation is fundamental in NLP tasks, because it is precisely from the coding of semantic closeness between words that it is possible to think of teaching a machine to understand text. Despite the spread of word embedding concepts, still few are the achievements in linguistic contexts other than English. In this work, analysing the semantic capacity of the Word2Vec algorithm, an embedding for the Italian language is produced. Parameter setting such as the number of epochs, the size of the context window and the number of negatively backpropagated samples is explored.
翻訳日:2023-01-06 23:59:57 公開日:2020-01-25
# LSTMアーキテクチャを用いた質問応答のインテント分類

Intent Classification in Question-Answering Using LSTM Architectures ( http://arxiv.org/abs/2001.09330v1 )

ライセンス: Link先を確認
Giovanni Di Gennaro, Amedeo Buonanno, Antonio Di Girolamo, Armando Ospedale, Francesco A.N. Palmieri(参考訳) 質問答え(QA)は間違いなく最もよく知られており、自然言語処理(NLP)と人工知能(AI)において最も複雑な問題の一つである。 一般的な答えを見つけるという問題の完全な解決策はまだ遠いように見えるので、最も賢いのは、単一の単純な部分を解決することで問題を分解することだ。 問題に対するモジュラーなアプローチを仮定すると、質問に答えるために意図的な分類に研究を限定する。 LSTMネットワークを用いて,このような分類を効果的かつ効率的に行う方法と,基本プロトタイプ応答器内で適切に利用する方法を示す。

Question-answering (QA) is certainly the best known and probably also one of the most complex problem within Natural Language Processing (NLP) and artificial intelligence (AI). Since the complete solution to the problem of finding a generic answer still seems far away, the wisest thing to do is to break down the problem by solving single simpler parts. Assuming a modular approach to the problem, we confine our research to intent classification for an answer, given a question. Through the use of an LSTM network, we show how this type of classification can be approached effectively and efficiently, and how it can be properly used within a basic prototype responder.
翻訳日:2023-01-06 23:59:48 公開日:2020-01-25
# ImaginingとReaching Visual Goalによる指導の追跡

Following Instructions by Imagining and Reaching Visual Goals ( http://arxiv.org/abs/2001.09373v1 )

ライセンス: Link先を確認
John Kanu, Eadom Dessalene, Xiaomin Lin, Cornelia Fermuller, Yiannis Aloimonos(参考訳) 従来の指示追従法は言語学と知覚学の知識を前提としていたが、近年の強化学習(RL)では、観察と指示の合同表現を行動に直接マッピングするニューラルネットワークを訓練することで、エンドツーエンドの学習ポリシーを提案している。 本研究では,RLフレームワークにおける空間的推論を用いて時間的に拡張されたタスクを学習するための新しいフレームワークを提案する。 本フレームワークは,生の画素画像上で動作し,事前の言語的知識や知覚的知識を前提とせず,本質的なモチベーションと単一外部報酬信号によってタスク完了を測定する。 本手法は,ロボットアームを用いた対話型3次元環境における2つの環境において検証を行う。 提案手法は,raw-pixel と ground-truth の2つのフラットアーキテクチャと,オブジェクト配置タスクにおける ground-truth 状態を持つ階層アーキテクチャを上回っている。

While traditional methods for instruction-following typically assume prior linguistic and perceptual knowledge, many recent works in reinforcement learning (RL) have proposed learning policies end-to-end, typically by training neural networks to map joint representations of observations and instructions directly to actions. In this work, we present a novel framework for learning to perform temporally extended tasks using spatial reasoning in the RL framework, by sequentially imagining visual goals and choosing appropriate actions to fulfill imagined goals. Our framework operates on raw pixel images, assumes no prior linguistic or perceptual knowledge, and learns via intrinsic motivation and a single extrinsic reward signal measuring task completion. We validate our method in two environments with a robot arm in a simulated interactive 3D environment. Our method outperforms two flat architectures with raw-pixel and ground-truth states, and a hierarchical architecture with ground-truth states on object arrangement tasks.
翻訳日:2023-01-06 23:59:37 公開日:2020-01-25
# グラフニューラルネットワークを用いた音声トリガの格子に基づく改善

Lattice-based Improvements for Voice Triggering Using Graph Neural Networks ( http://arxiv.org/abs/2001.10822v1 )

ライセンス: Link先を確認
Pranay Dighe, Saurabh Adya, Nuoyu Li, Srikanth Vishnubhotla, Devang Naik, Adithya Sagar, Ying Ma, Stephen Pulman, Jason Williams(参考訳) 音声トリガー付きスマートアシスタントは、ユーザリクエストを聴く前にトリガーフレーズの検出に依存することが多い。 誤ったトリガーの緩和は、プライバシー中心の非侵入型スマートアシスタントを構築する上で重要な側面である。 本稿では,グラフニューラルネットワーク(GNN)を用いた自動音声認識(ASR)格子の解析に基づく新しい手法を用いて,偽トリガ緩和(FTM)の課題に対処する。 提案手法は, 誤り発生音声のデコード格子は, 格子弧上の多くの代替経路や予期せぬ単語に関して, 正しく起動された音声の格子と比較して不確実性を示す。 純粋なトリガーフレーズ検出モデルは,ユーザ音声の意図を完全に活用していないが,ユーザ音声の完全復号化格子を用いることで,スマートアシスタントを意図しない音声を効果的に緩和することができる。 本論文では,2種類のGNNをデプロイする。 1)グラフ畳み込み層及び 2) セルフアテンション機構 実験では,99%の真正率(TPR)で偽トリガの87%を軽減し,FTMタスクにおいてGNNが極めて正確であることを示した。 さらに,提案モデルではパラメータ要求の学習が高速かつ効率的である。

Voice-triggered smart assistants often rely on detection of a trigger-phrase before they start listening for the user request. Mitigation of false triggers is an important aspect of building a privacy-centric non-intrusive smart assistant. In this paper, we address the task of false trigger mitigation (FTM) using a novel approach based on analyzing automatic speech recognition (ASR) lattices using graph neural networks (GNN). The proposed approach uses the fact that decoding lattice of a falsely triggered audio exhibits uncertainties in terms of many alternative paths and unexpected words on the lattice arcs as compared to the lattice of a correctly triggered audio. A pure trigger-phrase detector model doesn't fully utilize the intent of the user speech whereas by using the complete decoding lattice of user audio, we can effectively mitigate speech not intended for the smart assistant. We deploy two variants of GNNs in this paper based on 1) graph convolution layers and 2) self-attention mechanism respectively. Our experiments demonstrate that GNNs are highly accurate in FTM task by mitigating ~87% of false triggers at 99% true positive rate (TPR). Furthermore, the proposed models are fast to train and efficient in parameter requirements.
翻訳日:2023-01-06 23:59:18 公開日:2020-01-25
# フレームセマンティックスにおける定量化入門

Introduction of Quantification in Frame Semantics ( http://arxiv.org/abs/2002.00720v1 )

ライセンス: Link先を確認
Valentin D. Richard(参考訳) 特徴構造(fss)は属性-値関係の分解フレームワークに広く使われているツールである。 単純なシステムで繁栄する一方で、高階の実体と関係を表す方法が欠けている。 しかしこれはフレームセマンティクスにおいて必要であり、セマンティクス依存は、特にモデル定量化のために個人とそのプロパティのグループを接続できるべきである。 この問題に対処するため、このマスターレポートでは、サブFSを包み込み、ノードとして扱う方法としてラップを紹介している。 Kallmeyer, Osswald 2013 の作業に続いて、構文、意味論、いくつかの特性(FOL への変換、仮定、統一化)を拡張します。 そして、提案するパイプラインを広げることができます。 語彙最小モデル集合は公式から生成される。 LTAG解析により得られたFS値方程式を不特定文表現に統一する。 量子化器の構文的アプローチにより、既存の手法を使って可能な読み出しができる。 最後に、動的意味論の観点から、文脈と相互作用するタイプ論理式に書き起こしを与える。 フレームタイプの概念によってサポートされ、このシステムはfsとの高次関係のための作業可能で扱いやすいツールを提供する。

Feature Structures (FSs) are a widespread tool used for decompositional frameworks of Attribute-Value associations. Even though they thrive in simple systems, they lack a way of representing higher-order entities and relations. This is however needed in Frame Semantics, where semantic dependencies should be able to connect groups of individuals and their properties, especially to model quantification. To answer this issue, this master report introduces wrappings as a way to envelop a sub-FS and treat it as a node. Following the work of [Kallmeyer, Osswald 2013], we extend its syntax, semantics and some properties (translation to FOL, subsumption, unification). We can then expand the proposed pipeline. Lexical minimal model sets are generated from formulas. They unify by FS value equations obtained by LTAG parsing to an underspecified sentence representation. The syntactic approach of quantifiers allows us to use existing methods to produce any possible reading. Finally, we give a transcription to type-logical formulas to interact with the context in the view of dynamic semantics. Supported by ideas of Frame Types, this system provides a workable and tractable tool for higher-order relations with FS.
翻訳日:2023-01-06 23:58:40 公開日:2020-01-25
# モンテカルロ木探索におけるバックプロパゲーションのベイズ最適化

Bayesian optimization for backpropagation in Monte-Carlo tree search ( http://arxiv.org/abs/2001.09325v1 )

ライセンス: Link先を確認
Yueqin Li and Nengli Lim(参考訳) 大きなドメインでは、モンテカルロ木探索 (MCTS) が、状態の値を可能な限り効率的に正確に推定するために必要である。 しかし、バックプロパゲーションにおける標準更新規則は、リターンの定常分布を仮定しており、特にmin-max木では、平均化のために真の値への収束が遅くなる可能性がある。 バックプロパゲーション戦略を改善するための従来の試みを一般化した,Softmax MCTS と Monotone MCTS の2つの手法を提案する。 両手法がガウス過程(GP)を用いてベイズ最適化を行うことにより,最適単調関数の発見に還元されることを実証する。 また,提案手法が従来の手法よりも優れていることを示す。

In large domains, Monte-Carlo tree search (MCTS) is required to estimate the values of the states as efficiently and accurately as possible. However, the standard update rule in backpropagation assumes a stationary distribution for the returns, and particularly in min-max trees, convergence to the true value can be slow because of averaging. We present two methods, Softmax MCTS and Monotone MCTS, which generalize previous attempts to improve upon the backpropagation strategy. We demonstrate that both methods reduce to finding optimal monotone functions, which we do so by performing Bayesian optimization with a Gaussian process (GP) prior. We conduct experiments on computer Go, where the returns are given by a deep value neural network, and show that our proposed framework outperforms previous methods.
翻訳日:2023-01-06 23:57:59 公開日:2020-01-25