このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210123となっている論文です。

PDF登録状況(公開日: 20210123)

TitleAuthorsAbstract論文公表日・翻訳日
# (参考訳) FROCC:高速ランダムプロジェクションに基づくワンクラス分類 [全文訳有]

FROCC: Fast Random projection-based One-Class Classification ( http://arxiv.org/abs/2011.14317v2 )

ライセンス: CC BY 4.0
Arindam Bhattacharya and Sumanth Varambally and Amitabha Bagchi and Srikanta Bedathur(参考訳) 高速ランダム投影型一級分類(frocc)は,一級分類の非常に効率的な手法である。 本手法は, 単球から一様かつ独立に選択されたランダムな単位ベクトルの集合に投影し, データの分離に基づいて領域を束縛することで, トレーニングデータを変換するという単純なアイデアに基づいている。 FROCCはカーネルで自然に拡張できる。 理論的には、FROCCは安定でありバイアスが低いという意味でうまく一般化する。 FROCCは、SVMやOCCタスクのディープラーニングベースモデルを含む最先端ベンチマークのトレーニングとテスト時間の1.2-67.8倍のスピードアップで、最大3.1%のROCを実現している。

We present Fast Random projection-based One-Class Classification (FROCC), an extremely efficient method for one-class classification. Our method is based on a simple idea of transforming the training data by projecting it onto a set of random unit vectors that are chosen uniformly and independently from the unit sphere, and bounding the regions based on separation of the data. FROCC can be naturally extended with kernels. We theoretically prove that FROCC generalizes well in the sense that it is stable and has low bias. FROCC achieves up to 3.1 percent points better ROC, with 1.2--67.8x speedup in training and test times over a range of state-of-the-art benchmarks including the SVM and the deep learning based models for the OCC task.
翻訳日:2021-06-07 12:49:15 公開日:2021-01-23
# 理論誘導型ハード制約予測(HCP):知識に基づくデータ駆動型科学機械学習手法

Theory-guided hard constraint projection (HCP): a knowledge-based data-driven scientific machine learning method ( http://arxiv.org/abs/2012.06148v2 )

ライセンス: Link先を確認
Yuntian Chen, Dou Huang, Dongxiao Zhang, Junsheng Zeng, Nanzhe Wang, Haoran Zhang, and Jinyue Yan(参考訳) 機械学習モデルは、多くの科学・工学分野で成功している。 しかし、モデルがドメイン知識と実験観測データを同時に利用するのは難しいままである。 エキスパートシステムで表現される知識ベースのシンボリックAIの応用は、モデルの表現力によって制限され、ニューラルネットワークで表現されるデータ駆動コネクショナリズムAIは、物理的なメカニズムに反する予測を生成する傾向にある。 ドメイン知識を観察と完全に統合し,事前情報とニューラルネットワークの強適合性を最大限に活用するために,理論誘導型ハード制約投影(hcp)を提案する。 このモデルは、制御方程式のような物理的制約を離散化によって容易に扱える形式に変換し、射影を通して厳しい制約最適化を実行する。 厳密な数学的証明に基づいて、理論誘導HCPは、モデル予測が制約パッチの物理的メカニズムに厳密に適合することを保証できる。 理論誘導HCPの性能は不均一な地下流れ問題に基づく実験により検証した。 厳密な制約の適用により、理論誘導ニューラルネットワークや物理情報ニューラルネットワークのような完全に接続されたニューラルネットワークやソフト制約モデルと比較して、理論誘導型HCPは少ないデータを必要とし、ノイズの多い観測に対して高い予測精度と強い堅牢性を達成する。

Machine learning models have been successfully used in many scientific and engineering fields. However, it remains difficult for a model to simultaneously utilize domain knowledge and experimental observation data. The application of knowledge-based symbolic AI represented by an expert system is limited by the expressive ability of the model, and data-driven connectionism AI represented by neural networks is prone to produce predictions that violate physical mechanisms. In order to fully integrate domain knowledge with observations, and make full use of the prior information and the strong fitting ability of neural networks, this study proposes theory-guided hard constraint projection (HCP). This model converts physical constraints, such as governing equations, into a form that is easy to handle through discretization, and then implements hard constraint optimization through projection. Based on rigorous mathematical proofs, theory-guided HCP can ensure that model predictions strictly conform to physical mechanisms in the constraint patch. The performance of the theory-guided HCP is verified by experiments based on the heterogeneous subsurface flow problem. Due to the application of hard constraints, compared with fully connected neural networks and soft constraint models, such as theory-guided neural networks and physics-informed neural networks, theory-guided HCP requires fewer data, and achieves higher prediction accuracy and stronger robustness to noisy observations.
翻訳日:2021-05-11 03:11:42 公開日:2021-01-23
# 深層学習に基づく電気機械のキー性能指標の予測

Deep Learning-based Prediction of Key Performance Indicators for Electrical Machine ( http://arxiv.org/abs/2012.11299v2 )

ライセンス: Link先を確認
Vivek Parekh, Dominik Flore, Sebastian Sch\"ops(参考訳) 電気機械の設計は、最大トルク、臨界磁場強度、アクティブ部品のコスト、音響パワーなどのキーパフォーマンス指標(KPI)によって定量評価することができる。 一般に、クロスドメインツールチェーンは、与えられた入力パラメータを最大の設計空間で変更することにより、異なるドメインから全てのKPIを最適化するために使用される。 この最適化プロセスは、これらの決定的なKPIを得るために静磁有限要素シミュレーションを含む。 これにより、計算コストの高いリソースの可用性を考慮し、プロセス全体を膨大な時間を要する計算タスクにします。 本稿では,データ支援型深層学習メタモデルを用いて,電気機械のKPIを高速かつ高精度に予測し,全最適化プロセスの高速化と計算コストの削減を図る。 その焦点は、機械の幾何表現として機能する様々な入力データを分析することである。 すなわち、これらが電気機械の断面像であり、異なる位相に関する幾何学と、幾何学のスカラーパラメトリゼーションを伴う古典的方法の非常に一般的な記述を可能にする。 画像の解像度の影響を詳細に研究する。 その結果, 予測精度が高く, 最適化時間を最小限に抑える深層学習に基づくメタモデルの有効性が示された。 また,画像ベースアプローチの予測品質は,スカラーパラメータに基づく古典的手法に匹敵する可能性が示唆された。

The design of an electrical machine can be quantified and evaluated by Key Performance Indicators (KPIs) such as maximum torque, critical field strength, costs of active parts, sound power, etc. Generally, cross-domain tool-chains are used to optimize all the KPIs from different domains (multi-objective optimization) by varying the given input parameters in the largest possible design space. This optimization process involves magneto-static finite element simulation to obtain these decisive KPIs. It makes the whole process a vehemently time-consuming computational task that counts on the availability of resources with the involvement of high computational cost. In this paper, a data-aided, deep learning-based meta-model is employed to predict the KPIs of an electrical machine quickly and with high accuracy to accelerate the full optimization process and reduce its computational costs. The focus is on analyzing various forms of input data that serve as a geometry representation of the machine. Namely, these are the cross-section image of the electrical machine that allows a very general description of the geometry relating to different topologies and the classical way with scalar parametrization of geometry. The impact of the resolution of the image is studied in detail. The results show a high prediction accuracy and proof that the validity of a deep learning-based meta-model to minimize the optimization time. The results also indicate that the prediction quality of an image-based approach can be made comparable to the classical way based on scalar parameters.
翻訳日:2021-05-03 02:52:32 公開日:2021-01-23
# (参考訳) 重み付きニューラルネットワークにおける対向ロバスト性の改善 [全文訳有]

Improving Adversarial Robustness in Weight-quantized Neural Networks ( http://arxiv.org/abs/2012.14965v2 )

ライセンス: CC BY 4.0
Chang Song, Elias Fallon, Hai Li(参考訳) 近年、ニューラルネットワークはより深く計算集約的になっています。 量子化は、ハードウェアプラットフォームにニューラルネットワークをデプロイし、性能を損なうことなく計算コストを削減するのに有用な技術である。 しかし、最近の研究では、完全な精度や量子化に関わらず、ニューラルネットワークモデルが敵の攻撃に弱いことが示されている。 本研究では,敵対的損失と量子化損失の両方を分析し,評価基準を導入する。 そこで本稿では,逆数と量子化損失を緩和する境界ベース再学習法を提案し,ホワイトボックス勾配に基づく逆数攻撃に対する非線形マッピング法を採用した。 本手法は,ブラックボックス攻撃とホワイトボックス攻撃の双方において,他のベースライン手法と比較して,量子化後の精度を向上できることを示す。 また, 対人訓練が量子化損失を被り, 他の訓練方法とうまく連携しないことを示す。

Neural networks are getting deeper and more computation-intensiv e nowadays. Quantization is a useful technique in deploying neural networks on hardware platforms and saving computation costs with negligible performance loss. However, recent research reveals that neural network models, no matter full-precision or quantized, are vulnerable to adversarial attacks. In this work, we analyze both adversarial and quantization losses and then introduce criteria to evaluate them. We propose a boundary-based retraining method to mitigate adversarial and quantization losses together and adopt a nonlinear mapping method to defend against white-box gradient-based adversarial attacks. The evaluations demonstrate that our method can better restore accuracy after quantization than other baseline methods on both black-box and white-box adversarial attacks. The results also show that adversarial training suffers quantization loss and does not cooperate well with other training methods.
翻訳日:2021-04-18 21:54:24 公開日:2021-01-23
# 夜間生産車検出:PVDNデータセット

Provident Vehicle Detection at Night: The PVDN Dataset ( http://arxiv.org/abs/2012.15376v2 )

ライセンス: Link先を確認
Lars Ohnemus and Lukas Ewecker and Ebubekir Asan and Stefan Roos and Simon Isele and Jakob Ketterer and Leopold M\"uller and Sascha Saralajew(参考訳) 先進的な運転支援システムでは、できるだけ早く来るべき車両に関する情報を得ることが不可欠である。 夜間は照明条件が悪いため特に難しい。 そのため、夜間にはすべての車両がヘッドランプを使用して視覚を改善し、安全な運転を確保する。 人間として私たちは、ヘッドランプによって引き起こされる光反射を検出することで、実際に車両が物理的に見えるようになる前に、直観的に対向車と仮定する。 本稿では,夜間の農村環境において,346場面のうち59746場面の灰色スケール画像を含む新しいデータセットを提案する。 これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。 これにはデータセット特性の詳細な分析が伴う。 これにより、我々は、直視されるずっと前に、それらが引き起こす光の反射に基づいて車両を検知する新しい方法の研究を可能にする、包括的な真実データを備えた、最初のオープンソースデータセットを提供する。 我々は、これは現在の先進的な運転支援システムと人間の行動との間のパフォーマンスのギャップをさらに縮めるための重要なステップだと考えています。

For advanced driver assistance systems, it is crucial to have information about oncoming vehicles as early as possible. At night, this task is especially difficult due to poor lighting conditions. For that, during nighttime, every vehicle uses headlamps to improve sight and therefore ensure safe driving. As humans, we intuitively assume oncoming vehicles before the vehicles are actually physically visible by detecting light reflections caused by their headlamps. In this paper, we present a novel dataset containing 59746 annotated grayscale images out of 346 different scenes in a rural environment at night. In these images, all oncoming vehicles, their corresponding light objects (e.g., headlamps), and their respective light reflections (e.g., light reflections on guardrails) are labeled. This is accompanied by an in-depth analysis of the dataset characteristics. With that, we are providing the first open-source dataset with comprehensive ground truth data to enable research into new methods of detecting oncoming vehicles based on the light reflections they cause, long before they are directly visible. We consider this as an essential step to further close the performance gap between current advanced driver assistance systems and human behavior.
翻訳日:2021-04-17 17:09:13 公開日:2021-01-23
# spilloverアルゴリズム:オープン共有工場におけるマルチロボット生産計画のための分散協調手法

Spillover Algorithm: A Decentralized Coordination Approach for Multi-Robot Production Planning in Open Shared Factories ( http://arxiv.org/abs/2101.05700v2 )

ライセンス: Link先を確認
Marin Lujak and Alberto Fern\'andez and Eva Onaindia(参考訳) オープンで共有された製造工場は通常、効率的なシステム性能のために時間と空間のタスクに適切に割り当てられるべき限られた数のロボットを処分する。 特に,生産計画の動的容量化問題に対して,ロボットの製造に必要な製品量や位置を,所定の時間帯内で連続的に決定し,需要期間に関連付けて製品が予測・予約できるようなシーケンス独立的なセットアップコストで対処する。 オープンファクトリでは,ロボットの複数所有者と生産するアイテムの異なる所有者が,それぞれが自己関心と個々に合理的であると考えられる,分散化されたマルチエージェントの変種を考える。 従来の制約付きロットサイズ問題に対する既存のソリューションアプローチは、すべての参加者のプライベートでセンシティブな情報のグローバル知識を共有することを必要とする集中型厳密な手法であり、記述されたマルチエージェントコンテキストでは適用できない。 そこで本研究では,私的かつ機密性の高い情報を保護しつつ,本質的に分散化されたマルチエージェントシステム環境における決定を分散させることにより,このNPハード問題を解決するスルーオーバー効果に基づく,計算効率のよい分散化手法を提案する。 私たちの知る限りでは、本アルゴリズムは、本質的な分散環境における研究問題の解決のための最初の分散化アルゴリズムであり、生産資源や製品は、おそらく矛盾する目標を持つ複数の利害関係者によって所有されている。 効率性を示すため、Spilloverアルゴリズムは最先端の商用解法であるCPLEX 12.8に対してベンチマークされる。

Open and shared manufacturing factories typically dispose of a limited number of robots that should be properly allocated to tasks in time and space for an effective and efficient system performance. In particular, we deal with the dynamic capacitated production planning problem with sequence independent setup costs where quantities of products to manufacture and location of robots need to be determined at consecutive periods within a given time horizon and products can be anticipated or backordered related to the demand period. We consider a decentralized multi-agent variant of this problem in an open factory setting with multiple owners of robots as well as different owners of the items to be produced, both considered self-interested and individually rational. Existing solution approaches to the classic constrained lot-sizing problem are centralized exact methods that require sharing of global knowledge of all the participants' private and sensitive information and are not applicable in the described multi-agent context. Therefore, we propose a computationally efficient decentralized approach based on the spillover effect that solves this NP-hard problem by distributing decisions in an intrinsically decentralized multi-agent system environment while protecting private and sensitive information. To the best of our knowledge, this is the first decentralized algorithm for the solution of the studied problem in intrinsically decentralized environments where production resources and/or products are owned by multiple stakeholders with possibly conflicting objectives. To show its efficiency, the performance of the Spillover Algorithm is benchmarked against state-of-the-art commercial solver CPLEX 12.8.
翻訳日:2021-03-29 00:47:11 公開日:2021-01-23
# (参考訳) メタラーニングを用いたショット対話状態追跡 [全文訳有]

Few Shot Dialogue State Tracking using Meta-learning ( http://arxiv.org/abs/2101.06779v2 )

ライセンス: CC0 1.0
Saket Dingliwal, Bill Gao, Sanchit Agarwal, Chien-Wei Lin, Tagyoung Chung, Dilek Hakkani-Tur(参考訳) 対話状態追跡(DST)は、ホテル、タクシー予約、観光情報など特定の目的のために設計された自動チャットボットベースのシステムの中核となるコンポーネントである。 このようなシステムを新しいドメインにデプロイする必要性が高まっているため、ゼロ/フェーショットDSTの問題を解決する必要がある。 リソース豊富なドメインから未知のドメインに、追加データの必要性を最小限に抑えて知識を移行する学習のトレンドが増えている。 本研究では,この伝達に対するメタ学習アルゴリズムのメリットについて検討し,dst問題に特有のメタ学習型d-reptileを提案する。 大規模な実験により、さまざまなドメイン、メソッド、ベースモデル、データセットにまたがる従来のアプローチに対するメリットの明確な証拠が得られ、低データ環境ではベースラインよりも大幅に(5~25%)改善されています。 提案するメタラーナーは基礎モデルに依存しないため,既存のDSTシステムはトレーニング戦略を用いて未知領域の性能を向上させることができる。

Dialogue State Tracking (DST) forms a core component of automated chatbot based systems designed for specific goals like hotel, taxi reservation, tourist information, etc. With the increasing need to deploy such systems in new domains, solving the problem of zero/few-shot DST has become necessary. There has been a rising trend for learning to transfer knowledge from resource-rich domains to unknown domains with minimal need for additional data. In this work, we explore the merits of meta-learning algorithms for this transfer and hence, propose a meta-learner D-REPTILE specific to the DST problem. With extensive experimentation, we provide clear evidence of benefits over conventional approaches across different domains, methods, base models, and datasets with significant (5-25%) improvement over the baseline in a low-data setting. Our proposed meta-learner is agnostic of the underlying model and hence any existing state-of-the-art DST system can improve its performance on unknown domains using our training strategy.
翻訳日:2021-03-27 21:54:39 公開日:2021-01-23
# (参考訳) 多腕包帯における能動推論の実証評価

An empirical evaluation of active inference in multi-armed bandits ( http://arxiv.org/abs/2101.08699v2 )

ライセンス: CC BY 4.0
Dimitrije Markovic, Hrvoje Stojic, Sarah Schwoebel, and Stefan J. Kiebel(参考訳) 不確実性の下でのシーケンシャルな意思決定の重要な特徴は、エクスプロイト — 現在の知識に従って最善の行動を選択すること、他のアクションの価値に関する情報を探索することのバランスを取る必要があることである。 このトレードオフを捉えた古典的なタスクであるマルチアームバンディット問題は、多くの産業用途で有用なバンディットアルゴリズムを開発するための機械学習の手段として機能した。 人間と動物の行動を理解するための神経科学で最近開発されたシーケンシャルな意思決定のアプローチであるアクティブ推論フレームワークは、探索と探索のトレードオフを解決するための洗練された戦略によって区別される。 これにより、アクティブ推論は、既に確立されたbanditアルゴリズムのエキサイティングな代替手段となる。 ここでは、効率的でスケーラブルな近似能動推論アルゴリズムを導出し、最先端のバンディットアルゴリズムであるベイジアン上限値と楽観的なトンプソンサンプリングと比較する。 この比較は固定および動的切替バンディットの2種類のバンドイット問題に対して行われる。 我々の経験的評価は,本アルゴリズムが静止帯の効率的な長期的挙動を生まないことを示している。 しかし、より困難なスイッチングバンディット問題では、アクティブ推論は2つの最先端バンディットアルゴリズムよりもかなり優れている。 結果は、理論と応用機械学習のさらなる研究のためのエキサイティングな会場を開き、人間と動物の行動を研究するための一般的なフレームワークとして、アクティブ推論にさらなる信頼性を与えました。

A key feature of sequential decision making under uncertainty is a need to balance between exploiting--choosing the best action according to the current knowledge, and exploring--obtaining information about values of other actions. The multi-armed bandit problem, a classical task that captures this trade-off, served as a vehicle in machine learning for developing bandit algorithms that proved to be useful in numerous industrial applications. The active inference framework, an approach to sequential decision making recently developed in neuroscience for understanding human and animal behaviour, is distinguished by its sophisticated strategy for resolving the exploration-exploita tion trade-off. This makes active inference an exciting alternative to already established bandit algorithms. Here we derive an efficient and scalable approximate active inference algorithm and compare it to two state-of-the-art bandit algorithms: Bayesian upper confidence bound and optimistic Thompson sampling. This comparison is done on two types of bandit problems: a stationary and a dynamic switching bandit. Our empirical evaluation shows that the active inference algorithm does not produce efficient long-term behaviour in stationary bandits. However, in the more challenging switching bandit problem active inference performs substantially better than the two state-of-the-art bandit algorithms. The results open exciting venues for further research in theoretical and applied machine learning, as well as lend additional credibility to active inference as a general framework for studying human and animal behaviour.
翻訳日:2021-03-21 13:00:49 公開日:2021-01-23
# 三ガードフラグメントの有限モデル理論と関連する論理

Finite Model Theory of the Triguarded Fragment and Related Logics ( http://arxiv.org/abs/2101.08377v2 )

ライセンス: Link先を確認
Emanuel Kiero\'nski and Sebastian Rudolph(参考訳) Triguarded Fragment (TGF) は、一階述語論理の最も表現力に富んだ断片であり、その2変数とガードされた断片の両方を等しく仮定している。 TGF は有限モデル特性(モデルサイズに厳密な2倍指数境界を与える)を持ち、したがって有限満足度は N2ExpTime 完全であることが知られている満足度と一致することを示す。 同様の構成を用いると、遷移ガード付き固定自由(tri)ガードフラグメントの有限充足性に対する2ExpTime完全性も確立する。

The Triguarded Fragment (TGF) is among the most expressive decidable fragments of first-order logic, subsuming both its two-variable and guarded fragments without equality. We show that the TGF has the finite model property (providing a tight doubly exponential bound on the model size) and hence finite satisfiability coincides with satisfiability known to be N2ExpTime-complete. Using similar constructions, we also establish 2ExpTime-completenes s for finite satisfiability of the constant-free (tri)guarded fragment with transitive guards.
翻訳日:2021-03-21 07:49:32 公開日:2021-01-23
# (参考訳) 自己スーパービジョンに基づくオンライン対外浄化 [全文訳有]

Online Adversarial Purification based on Self-Supervision ( http://arxiv.org/abs/2101.09387v1 )

ライセンス: CC BY 4.0
Changhao Shi, Chester Holtz and Gal Mishne(参考訳) 深層ニューラルネットワークは、入力空間の摂動が潜伏ネットワーク表現の増幅シフトにつながる敵の例に弱いことが知られている。 本稿では,自己教師型学習と自己教師型表現学習を併用し,自己教師型オンライン適応浄化(SOAP:Self-supervise d Online Adversarial Purification)を提案する。 本手法は,自己教師付き信号のラベル非依存性を活用し,自己教師付きタスクに対する敵対的摂動に対応する。 SOAPは、最先端の敵のトレーニングと浄化方法に対して、競争力のある堅牢な精度をもたらします。 また, 敵に浄化防衛戦略の知識が与えられても, 本手法は堅牢である。 我々の知る限りでは、オンラインテストタイムの浄化にセルフ教師付き信号を用いるというアイデアを一般化した最初の論文である。

Deep neural networks are known to be vulnerable to adversarial examples, where a perturbation in the input space leads to an amplified shift in the latent network representation. In this paper, we combine canonical supervised learning with self-supervised representation learning, and present Self-supervised Online Adversarial Purification (SOAP), a novel defense strategy that uses a self-supervised loss to purify adversarial examples at test-time. Our approach leverages the label-independent nature of self-supervised signals and counters the adversarial perturbation with respect to the self-supervised tasks. SOAP yields competitive robust accuracy against state-of-the-art adversarial training and purification methods, with considerably less training complexity. In addition, our approach is robust even when adversaries are given knowledge of the purification defense strategy. To the best of our knowledge, our paper is the first that generalizes the idea of using self-supervised signals to perform online test-time purification.
翻訳日:2021-03-20 16:19:24 公開日:2021-01-23
# (参考訳) セットアップポリシーの学習: 移動行動間の信頼できる遷移 [全文訳有]

Learning Setup Policies: Reliable Transition Between Locomotion Behaviours ( http://arxiv.org/abs/2101.09391v1 )

ライセンス: CC BY 4.0
Brendan Tidd, Nicolas Hudson, Akansel Cosgun, Jurgen Leitner(参考訳) 多様地形上で動作する動的プラットフォームは、一般的に複数のコントローラを必要とするが、コントローラ間で安全に遷移するためには、隣接するコントローラ間で状態のオーバーラップが必要となる。 本研究では,事前学習した深層強化学習(DRL)ポリシー間の軌道を橋渡しする設定ポリシーの学習方法を開発した。 提案手法は,1つの政策が課題を学習できない,設定ポリシーなしで事前訓練された都市間を切り替える,困難なジャンプ地形を横断するシミュレートバイドで実証する。 我々は,システムの主要コンポーネントのアナレーションを行い,遷移方針を学習する他のコンポーネントよりも優れていることを示すとともに,複雑な地形の連続を横断するモジュール制御スイートの一部として,セットアップポリシーを使用できることを示す。 セットアップポリシーを用いることで、単一の難しいジャンプ地形を横断する成功率(セットアップポリシーなしでの1.5%成功率から82%)と、さまざまな地形(セットアップポリシーなしでの6.5%から29.1%)が向上することを示す。

Dynamic platforms that operate over manyunique terrain conditions typically require multiple controllers.To transition safely between controllers, there must be anoverlap of states between adjacent controllers. We developa novel method for training Setup Policies that bridge thetrajectories between pre-trained Deep Reinforcement Learning(DRL) policies. We demonstrate our method with a simulatedbiped traversing a difficult jump terrain, where a single policyfails to learn the task, and switching between pre-trainedpolicies without Setup Policies also fails. We perform anablation of key components of our system, and show thatour method outperforms others that learn transition policies.We demonstrate our method with several difficult and diverseterrain types, and show that we can use Setup Policies as partof a modular control suite to successfully traverse a sequence ofcomplex terrains. We show that using Setup Policies improvesthe success rate for traversing a single difficult jump terrain(from 1.5%success rate without Setup Policies to 82%), and asequence of various terrains (from 6.5%without Setup Policiesto 29.1%).
翻訳日:2021-03-20 15:59:23 公開日:2021-01-23
# (参考訳) ブラインド画像復元のための適応スパース正規化 [全文訳有]

Adaptively Sparse Regularization for Blind Image Restoration ( http://arxiv.org/abs/2101.09401v1 )

ライセンス: CC BY 4.0
Ningshan Xu(参考訳) 画像品質は、画像コミュニケーションと理解タスクの基礎である。 撮像、伝送、その他のプロセスによるぼやけやノイズの影響により、画質が劣化する。 ブラインド画像復元は画像品質向上のために広く用いられており、主な目的は、ぼやけたカーネルと潜伏したシャープ画像とを忠実に推定することである。 本研究では,実験観測と研究に基づいて,適応的にスパースな正規化最小化法を提案する。 高次勾配は低次勾配と結合してハイブリッド正規化項を形成し、画像エントロピーから導出される適応作用素を導入して良好な収束を維持する。 異なるブラーカーネルと画像に対して大規模な実験を行った。 従来の最先端のブラインドデブロアリング法と比較して,本手法は回収精度に優れていた。

Image quality is the basis of image communication and understanding tasks. Due to the blur and noise effects caused by imaging, transmission and other processes, the image quality is degraded. Blind image restoration is widely used to improve image quality, where the main goal is to faithfully estimate the blur kernel and the latent sharp image. In this study, based on experimental observation and research, an adaptively sparse regularized minimization method is originally proposed. The high-order gradients combine with low-order ones to form a hybrid regularization term, and an adaptive operator derived from the image entropy is introduced to maintain a good convergence. Extensive experiments were conducted on different blur kernels and images. Compared with existing state-of-the-art blind deblurring methods, our method demonstrates superiority on the recovery accuracy.
翻訳日:2021-03-20 15:44:03 公開日:2021-01-23
# (参考訳) 4d atlas:縦型3次元形状データにおける時空間変動の統計解析 [全文訳有]

4D Atlas: Statistical Analysis of the Spatiotemporal Variability in Longitudinal 3D Shape Data ( http://arxiv.org/abs/2101.09403v1 )

ライセンス: CC BY 4.0
Hamid Laga, Marcel Padilla, Ian H. Jermyn, Sebastian Kurtek, Mohammed Bennamoun, Anuj Srivastava(参考訳) 時間とともに進化・変形する被験者の観察を含む縦3次元形状データセットの時空間変動を学習するための新しい枠組みを提案する。 曲面は任意の空間的および時間的パラメータ化を持つため、この問題は難しい。 したがって、それらは空間的に登録され、時間的に互いにアライメントされる必要がある。 我々はこの時空間登録問題をリーマン的手法を用いて解く。 3次元表面を弾性計量を備えた形状空間の点として扱い、曲面が受ける曲げや伸びの量を測定する。 4d曲面は、この空間における軌道と見なすことができる。 この定式化により、4次元曲面の統計解析は、非線形リーマン多様体に埋め込まれた軌道の解析の問題となる。 しかし、非線形空間上の時空間登録と統計の計算は複雑な非線形最適化に依存する。 我々の中心的な貢献は、L2計量が曲面の空間における部分弾性計量と等価である正方根正規場(SRNF)の空間への曲面のマッピングである。 SRNF空間における空間登録を解くことにより、4次元曲面の解析は、ユークリッド空間であるSRNF空間に埋め込まれた軌道を解析する問題となる。 本稿では,そのような解析を可能にするビルディングブロックを開発する。 これには、大きな弾性変形やその実行率のばらつきが存在する場合でも任意にパラメータ化された4d表面の時空間的登録、4d表面間の測地線計算、変動の手段やモードといった統計要約の計算、ランダムな4d表面の合成などが含まれる。 4次元顔表面と4次元人体形状を用いて,提案フレームワークの性能を実証する。

We propose a novel framework to learn the spatiotemporal variability in longitudinal 3D shape data sets, which contain observations of subjects that evolve and deform over time. This problem is challenging since surfaces come with arbitrary spatial and temporal parameterizations. Thus, they need to be spatially registered and temporally aligned onto each other. We solve this spatiotemporal registration problem using a Riemannian approach. We treat a 3D surface as a point in a shape space equipped with an elastic metric that measures the amount of bending and stretching that the surfaces undergo. A 4D surface can then be seen as a trajectory in this space. With this formulation, the statistical analysis of 4D surfaces becomes the problem of analyzing trajectories embedded in a nonlinear Riemannian manifold. However, computing spatiotemporal registration and statistics on nonlinear spaces relies on complex nonlinear optimizations. Our core contribution is the mapping of the surfaces to the space of Square-Root Normal Fields (SRNF) where the L2 metric is equivalent to the partial elastic metric in the space of surfaces. By solving the spatial registration in the SRNF space, analyzing 4D surfaces becomes the problem of analyzing trajectories embedded in the SRNF space, which is Euclidean. Here, we develop the building blocks that enable such analysis. These include the spatiotemporal registration of arbitrarily parameterized 4D surfaces even in the presence of large elastic deformations and large variations in their execution rates, the computation of geodesics between 4D surfaces, the computation of statistical summaries, such as means and modes of variation, and the synthesis of random 4D surfaces. We demonstrate the performance of the proposed framework using 4D facial surfaces and 4D human body shapes.
翻訳日:2021-03-20 15:36:59 公開日:2021-01-23
# (参考訳) 連続的結合強度予測のための機械学習手法 [全文訳有]

A Machine Learning Approach to Predicting Continuous Tie Strengths ( http://arxiv.org/abs/2101.09417v1 )

ライセンス: CC BY 4.0
James Flamino, Ross DeVito, Boleslaw K. Szymanski, Omar Lizardo(参考訳) 人々の関係は常に進化し、対人行動を変え、社会集団を定義する。 ソーシャルネットワーク内のノード間の関係は、しばしば調査によって実証的に評価される結合力によって表される。 これは関係の静的スナップショットを取るのに有効であるが、動的ネットワークへのスケーリングは困難である。 本稿では,時間とともに進化していく関係を連続的に近似するシステムを提案する。 我々は,ノートルダム大学の学生の4年間にわたる総合的なコミュニケーション記録を提供するNetSense研究を用いて,このシステムを評価する。 これらの記録はsemesterly ego network surveysによって補完され、各参加者の真の社会的つながりの強さの時間を通じて個別のサンプルを提供する。 我々は、これらの調査から学習し、通信記録を信号として解釈する、強力な機械学習モデル(過去の研究から抽出したベースライン群によって補完される)を開発した。 これらの信号は動的結合強度を表し、ソーシャルネットワーク内の個人間の関係の進化を正確に記録します。 これらの発展するタイ値によって、我々は過去の作品と比較した経験的に導出されたいくつかの観察をすることができる。

Relationships between people constantly evolve, altering interpersonal behavior and defining social groups. Relationships between nodes in social networks can be represented by a tie strength, often empirically assessed using surveys. While this is effective for taking static snapshots of relationships, such methods are difficult to scale to dynamic networks. In this paper, we propose a system that allows for the continuous approximation of relationships as they evolve over time. We evaluate this system using the NetSense study, which provides comprehensive communication records of students at the University of Notre Dame over the course of four years. These records are complemented by semesterly ego network surveys, which provide discrete samples over time of each participant's true social tie strength with others. We develop a pair of powerful machine learning models (complemented by a suite of baselines extracted from past works) that learn from these surveys to interpret the communications records as signals. These signals represent dynamic tie strengths, accurately recording the evolution of relationships between the individuals in our social networks. With these evolving tie values, we are able to make several empirically derived observations which we compare to past works.
翻訳日:2021-03-20 15:06:13 公開日:2021-01-23
# (参考訳) 多人数対話からの埋め込みによるチームパフォーマンスの分析 [全文訳有]

Analyzing Team Performance with Embeddings from Multiparty Dialogues ( http://arxiv.org/abs/2101.09421v1 )

ライセンス: CC BY 4.0
Ayesha Enayet and Gita Sukthankar(参考訳) 優れたコミュニケーションは間違いなく効果的なチームワークの基礎です。 時間とともにチームは独自のコミュニケーションスタイルを開発し、人間が言語選択を同期する会話的現象であるエントレーメント(entrainment)をしばしば提示する。 本稿では,類似するコンフリクトスコアを持つチームがベクトル空間内に存在するような,多人数対話から学習した組込みによるチームパフォーマンス予測の問題について検討する。 埋め込みは,1)対話行為,2)感情極性,3)統語訓練の3種類の特徴から抽出された。 これらの機能はすべて、チームのパフォーマンスを効果的に予測するために使用できますが、そのユーティリティはチームワークフェーズによって異なります。 1)早期(知識建物)、2)中間(問題解決)、3)後期(彫刻)の対話を段階的に分割する。 構文的訓練とは異なり、対話行為と感情埋め込みは、初期の段階でもチームのパフォーマンスを分類するのに有効である。 この発見は、チーム形成を促進する会話エージェントの開発に潜在的な影響をもたらす。

Good communication is indubitably the foundation of effective teamwork. Over time teams develop their own communication styles and often exhibit entrainment, a conversational phenomena in which humans synchronize their linguistic choices. This paper examines the problem of predicting team performance from embeddings learned from multiparty dialogues such that teams with similar conflict scores lie close to one another in vector space. Embeddings were extracted from three types of features: 1) dialogue acts 2) sentiment polarity 3) syntactic entrainment. Although all of these features can be used to effectively predict team performance, their utility varies by the teamwork phase. We separate the dialogues of players playing a cooperative game into stages: 1) early (knowledge building) 2) middle (problem-solving) and 3) late (culmination). Unlike syntactic entrainment, both dialogue act and sentiment embeddings are effective for classifying team performance, even during the initial phase. This finding has potential ramifications for the development of conversational agents that facilitate teaming.
翻訳日:2021-03-20 14:47:39 公開日:2021-01-23
# (参考訳) DFPとBFGSに基づく垂直連合学習 [全文訳有]

Vertical federated learning based on DFP and BFGS ( http://arxiv.org/abs/2101.09428v1 )

ライセンス: CC BY 4.0
Song WenJie, Shen Xuan(参考訳) データプライバシが人々によって徐々に重視される中、データ保護の可能性から、フェデレーション学習(FL)が出現している。 FLは、異なるデータプロバイダ間で暗号化情報を交換することで、分散機械学習を実現するために、データセキュリティを保証するという約束に基づいて、同型暗号化と差分プライバシー暗号化を使用する。 しかし、クライアントとサーバ間の通信効率やデータが非iidであるなど、flには依然として多くの問題がある。 上記の2つの問題を解決するために,dfp と bfgs (bdfl) に基づく新しい垂直フェデレーション学習フレームワークを提案し,ロジスティック回帰に適用する。 最後に、実データセットを用いてBDFLフレームワークの効率性をテストする。

As data privacy is gradually valued by people, federated learning(FL) has emerged because of its potential to protect data. FL uses homomorphic encryption and differential privacy encryption on the promise of ensuring data security to realize distributed machine learning by exchanging encrypted information between different data providers. However, there are still many problems in FL, such as the communication efficiency between the client and the server and the data is non-iid. In order to solve the two problems mentioned above, we propose a novel vertical federated learning framework based on the DFP and the BFGS(denoted as BDFL), then apply it to logistic regression. Finally, we perform experiments using real datasets to test efficiency of BDFL framework.
翻訳日:2021-03-20 14:36:39 公開日:2021-01-23
# (参考訳) 説明可能な人工知能アプローチ:調査 [全文訳有]

Explainable Artificial Intelligence Approaches: A Survey ( http://arxiv.org/abs/2101.09429v1 )

ライセンス: CC BY 4.0
Sheikh Rabiul Islam, William Eberle, Sheikh Khaled Ghafoor, Mohiuddin Ahmed(参考訳) 人工知能(AI)ベースの「ブラックボックス」システム/モデルからの決定可能性の欠如は、現実の多くのアプリケーションにおいて優位性にもかかわらず、異なるドメインや産業の多くの高利害なアプリケーションでAIを採用する上で重要な障害である。 多くの人気のある Explainable Artificial Intelligence (XAI) の手法やアプローチは、人間に親しみやすい決定の説明を促進するために利用できるが、それぞれに独自のメリットとデメリットがあり、多くのオープンな課題がある。 我々は、相互ケーススタディ/タスク(クレジットデフォルト予測)で人気のあるXAI手法を実証し、複数の視点(ローカル、グローバルなど)から競争上の優位性を分析し、説明可能性の定量化に関する有意義な洞察を提供し、XAIを媒体として、責任や人間中心のAIへの道を推奨する。 実践者は、この作品をカタログとして使用して、人気のあるXAI手法の競争上の優位性を理解し、比較し、相関付けすることができる。 さらに、この調査では、責任や人間中心のAIシステムに対する今後の研究の方向性が示されています。

The lack of explainability of a decision from an Artificial Intelligence (AI) based "black box" system/model, despite its superiority in many real-world applications, is a key stumbling block for adopting AI in many high stakes applications of different domain or industry. While many popular Explainable Artificial Intelligence (XAI) methods or approaches are available to facilitate a human-friendly explanation of the decision, each has its own merits and demerits, with a plethora of open challenges. We demonstrate popular XAI methods with a mutual case study/task (i.e., credit default prediction), analyze for competitive advantages from multiple perspectives (e.g., local, global), provide meaningful insight on quantifying explainability, and recommend paths towards responsible or human-centered AI using XAI as a medium. Practitioners can use this work as a catalog to understand, compare, and correlate competitive advantages of popular XAI methods. In addition, this survey elicits future research directions towards responsible or human-centric AI systems, which is crucial to adopt AI in high stakes applications.
翻訳日:2021-03-20 14:24:27 公開日:2021-01-23
# (参考訳) 遠隔医療支援のためのプレッシャ潰瘍ケアシステム:創部領域分割に基づく注意モデルを用いた残留U-Net [全文訳有]

A Pressure Ulcer Care System For Remote Medical Assistance: Residual U-Net with an Attention Model Based for Wound Area Segmentation ( http://arxiv.org/abs/2101.09433v1 )

ライセンス: CC BY 4.0
Jinyeong Chae, Ki Yong Hong, Jihie Kim(参考訳) 障害のある患者や移動障害のある高齢者の増加は、しばしば圧力潰瘍に苦しむ。 被害地域は定期的な検査が必要だが、病院へのアクセスが困難である。 遠隔診断システムもいくつか使用されているが,患者の状態の定期的な確認には限界がある。 本稿では,画像処理技術を用いて潰瘍管理を支援する遠隔医療アシスタントを提案する。 提案システムは,創傷分類と解析のための深層学習モデルを備えたモバイルアプリケーションを含む。 ディープラーニングモデルをトレーニングするのに十分なデータがないので、関連するドメインから事前訓練されたモデルと、このタスクに適したデータ拡張を利用します。 まず、双線形補間を用いた画像前処理法を用いて画像の縮小と正規化を行う。 第二に、データ拡張には回転、反射、流域アルゴリズムを用いる。 第3に,感圧潰瘍画像と同様の皮膚創傷画像から,事前訓練した深層学習モデルを用いた。 最後に,圧力潰瘍画像の特徴のヒントを提供するアテンションモジュールを追加した。 その結果、99.0%の精度、99.99%の結合(IoU)、93.4%のサイス類似係数(DSC)が得られた。

Increasing numbers of patients with disabilities or elderly people with mobility issues often suffer from a pressure ulcer. The affected areas need regular checks, but they have a difficulty in accessing a hospital. Some remote diagnosis systems are being used for them, but there are limitations in checking a patient's status regularly. In this paper, we present a remote medical assistant that can help pressure ulcer management with image processing techniques. The proposed system includes a mobile application with a deep learning model for wound segmentation and analysis. As there are not enough data to train the deep learning model, we make use of a pretrained model from a relevant domain and data augmentation that is appropriate for this task. First of all, an image preprocessing method using bilinear interpolation is used to resize images and normalize the images. Second, for data augmentation, we use rotation, reflection, and a watershed algorithm. Third, we use a pretrained deep learning model generated from skin wound images similar to pressure ulcer images. Finally, we added an attention module that can provide hints on the pressure ulcer image features. The resulting model provides an accuracy of 99.0%, an intersection over union (IoU) of 99.99%, and a dice similarity coefficient (DSC) of 93.4% for pressure ulcer segmentation, which is better than existing results.
翻訳日:2021-03-20 13:57:27 公開日:2021-01-23
# (参考訳) 再現性、再現性およびそれ以上性:野生動物におけるアスペクトベース感情分析の生産準備性の評価 [全文訳有]

Reproducibility, Replicability and Beyond: Assessing Production Readiness of Aspect Based Sentiment Analysis in the Wild ( http://arxiv.org/abs/2101.09449v1 )

ライセンス: CC BY 4.0
Rajdeep Mukherjee, Shreyas Shetty, Subrata Chattopadhyay, Subhadeep Maji, Samik Datta and Pawan Goyal(参考訳) オンラインマーケットプレースとユーザー生成コンテンツの増加に伴い、アスペクトベースの感情分析はこれまで以上に重要になっている。 本研究では,過去6年間に公開されたモデルの代表的なサンプルを,実運用環境での展開に目を向けて,実践者のレンズを通して批判的にレビューする。 まず、厳密な経験的評価により再現性が低いことが明らかとなり、サンプル全体で平均4-5%の検定精度が低下した。 第2に,経験的評価の信頼性をさらに高めるため,2つの挑戦的なデータスライスの実験を報告し,一貫性のある12~55%の精度低下を観測した。 第3に、ドメイン間の転送の可能性を調査し、同じローカライズ内の他のドメインからのデータセットと組み合わせて使用する場合、ドメイン固有のトレーニングデータセットの10~25%程度は、完全にクロスドメインと完全なドメイン内予測パフォーマンスのギャップを埋める。 最後に、インドの大規模なeコマースポータルから2つの大規模なアノテートレビューコーパスをオープンソース化し、複製性と転送の研究を支援し、この分野のさらなる成長を促進することを期待している。

With the exponential growth of online marketplaces and user-generated content therein, aspect-based sentiment analysis has become more important than ever. In this work, we critically review a representative sample of the models published during the past six years through the lens of a practitioner, with an eye towards deployment in production. First, our rigorous empirical evaluation reveals poor reproducibility: an average 4-5% drop in test accuracy across the sample. Second, to further bolster our confidence in empirical evaluation, we report experiments on two challenging data slices, and observe a consistent 12-55% drop in accuracy. Third, we study the possibility of transfer across domains and observe that as little as 10-25% of the domain-specific training dataset, when used in conjunction with datasets from other domains within the same locale, largely closes the gap between complete cross-domain and complete in-domain predictive performance. Lastly, we open-source two large-scale annotated review corpora from a large e-commerce portal in India in order to aid the study of replicability and transfer, with the hope that it will fuel further growth of the field.
翻訳日:2021-03-20 13:50:06 公開日:2021-01-23
# (参考訳) 効率的なメッセージパッシング機構を用いたニューラルリレーショナル推論 [全文訳有]

Neural Relational Inference with Efficient Message Passing Mechanisms ( http://arxiv.org/abs/2101.09486v1 )

ライセンス: CC BY 4.0
Siyuan Chen and Jiahai Wang and Guoqing Li(参考訳) 多くの複雑なプロセスは相互作用するエージェントの力学系と見なすことができる。 多くの場合、個々のエージェントの状態列のみが観察されるが、相互作用する関係と動的規則は未知である。 ニューラルリレーショナル推論(NRI)モデルは、潜在グラフにメッセージを渡すグラフニューラルネットワークを採用し、観測データに基づいて関係とダイナミクスを共同で学習する。 しかし、NRIは独立して関係を推測し、動的学習過程における多段階予測における誤差蓄積に悩まされる。 さらに、より複雑なシステムでは、事前知識のない関係再構築が困難になる。 本稿では,これらの問題に対処するための構造的事前知識を持つグラフニューラルネットワークに,効率的なメッセージパッシング機構を導入する。 全ての関係の共存を捉えるための関係相互作用機構が提案され、履歴情報を用いてエラーの蓄積を緩和する時空間メッセージパッシング機構が提案されている。 さらに、構造的事前知識(特別の場合として対称性)は、より複雑なシステムにおけるより良い関係予測のために導入された。 シミュレーション物理システムの実験結果から,提案手法は既存の最先端手法よりも優れていることがわかった。

Many complex processes can be viewed as dynamical systems of interacting agents. In many cases, only the state sequences of individual agents are observed, while the interacting relations and the dynamical rules are unknown. The neural relational inference (NRI) model adopts graph neural networks that pass messages over a latent graph to jointly learn the relations and the dynamics based on the observed data. However, NRI infers the relations independently and suffers from error accumulation in multi-step prediction at dynamics learning procedure. Besides, relation reconstruction without prior knowledge becomes more difficult in more complex systems. This paper introduces efficient message passing mechanisms to the graph neural networks with structural prior knowledge to address these problems. A relation interaction mechanism is proposed to capture the coexistence of all relations, and a spatio-temporal message passing mechanism is proposed to use historical information to alleviate error accumulation. Additionally, the structural prior knowledge, symmetry as a special case, is introduced for better relation prediction in more complex systems. The experimental results on simulated physics systems show that the proposed method outperforms existing state-of-the-art methods.
翻訳日:2021-03-20 13:21:34 公開日:2021-01-23
# (参考訳) オフショアウィンドファームにおける安全で回復力のある自律ロボットのための共生システム設計 [全文訳有]

Symbiotic System Design for Safe and Resilient Autonomous Robotics in Offshore Wind Farms ( http://arxiv.org/abs/2101.09491v1 )

ライセンス: CC BY 4.0
Daniel Mitchell, Osama Zaki, Jamie Blanche, Joshua Roe, Leo Kong, Samuel Harper, Valentin Robu, Theodore Lim, David Flynn(参考訳) オフショア・ウィンドファームの運用・保守(O&M)コストを削減するため、O&Mコストの80%は人員の配置に関連しており、オフショア・ウィンドセクターはソリューションのためのロボティクスと人工知能(AI)に注目している。 BVLOS(Beyond Visual Line of Sight)ロボットへの障壁には、運用上の安全コンプライアンスとレジリエンスが含まれており、オフショアでの自動運転サービスの商用化を阻害している。 安全とレジリエンスの課題に対処するために,ロボットプラットフォームと遠隔操作者の相互獲得のための知識共有とライフサイクル学習と共進化を反映した共生システムを提案する。 本手法は,自律ミッションにおける安全性,信頼性,レジリエンスのリアルタイム検証を可能にする。 ロボット,環境,インフラのディジタルモデルを同期させ,遠隔操作者への自律的な適応ミッション計画と状況報告のためのフロントエンド分析と双方向通信を統合する。 このロボットの信頼性オントロジーは,我々の全体的階層関係モデルに基づいて,計算効率のよいプラットフォームデータ解析を支援する。 ロボット内の重要なサブシステムのミッションステータスと診断を分析し、実行時の信頼性オントロジーを自動的に更新し、ミッション中に障害を失敗モードに変換して意思決定できるようにする。 拘束空間内での資産検査ミッションを実演し、ミリ波センシングを用いて状況認識を高め、不明瞭な人員の存在を検知してリスクを軽減する。 本研究は,BVLOSミッションに対して,共生システムによりレジリエンスが向上することを示す。 共生システムは、自律的なミッション目標の運用上の課題と優先順位付けに対処する。 これにより、完全に信頼できる自律システムを実現するために必要な技術が進歩する。

To reduce Operation and Maintenance (O&M) costs on offshore wind farms, wherein 80% of the O&M cost relates to deploying personnel, the offshore wind sector looks to robotics and Artificial Intelligence (AI) for solutions. Barriers to Beyond Visual Line of Sight (BVLOS) robotics include operational safety compliance and resilience, inhibiting the commercialization of autonomous services offshore. To address safety and resilience challenges we propose a symbiotic system; reflecting the lifecycle learning and co-evolution with knowledge sharing for mutual gain of robotic platforms and remote human operators. Our methodology enables the run-time verification of safety, reliability and resilience during autonomous missions. We synchronize digital models of the robot, environment and infrastructure and integrate front-end analytics and bidirectional communication for autonomous adaptive mission planning and situation reporting to a remote operator. A reliability ontology for the deployed robot, based on our holistic hierarchical-relatio nal model, supports computationally efficient platform data analysis. We analyze the mission status and diagnostics of critical sub-systems within the robot to provide automatic updates to our run-time reliability ontology, enabling faults to be translated into failure modes for decision making during the mission. We demonstrate an asset inspection mission within a confined space and employ millimeter-wave sensing to enhance situational awareness to detect the presence of obscured personnel to mitigate risk. Our results demonstrate a symbiotic system provides an enhanced resilience capability to BVLOS missions. A symbiotic system addresses the operational challenges and reprioritization of autonomous mission objectives. This advances the technology required to achieve fully trustworthy autonomous systems.
翻訳日:2021-03-20 13:02:40 公開日:2021-01-23
# (参考訳) debiasing pre-trained contextized embeddeds [全文訳有]

Debiasing Pre-trained Contextualised Embeddings ( http://arxiv.org/abs/2101.09523v1 )

ライセンス: CC BY 4.0
Masahiro Kaneko and Danushka Bollegala(参考訳) 静的な非コンテクチュアルな単語埋め込みに対して提案された多くのデバイアス法と比較して、文脈的埋め込みにおける識別バイアスは比較的ほとんど注目されていない。 本稿では,事前学習された文脈的埋め込みに対してトークンレベルや文レベルで適用可能な微調整手法を提案する。 提案手法は,事前学習した文脈埋め込みモデルに対して,それらのモデルを再学習することなく適用することができる。 ジェンダーバイアスを例示として,複数のベンチマークデータセット上でsof(state-of-the-art )コンテクスト化表現を用いた体系的な研究を行い,提案手法を用いたデバイアスの前後における異なるコンテクスト化埋め込みで符号化されるバイアスのレベルを評価する。 すべてのトークンとコンテキスト化された埋め込みモデルのすべてのレイヤにトークンレベルのデバイアスを適用すると、最高のパフォーマンスが得られます。 興味深いことに、正確なコンテキスト型埋め込みモデルの作成と、異なるコンテキスト型埋め込みモデルの作成の間にはトレードオフがある。

In comparison to the numerous debiasing methods proposed for the static non-contextualised word embeddings, the discriminative biases in contextualised embeddings have received relatively little attention. We propose a fine-tuning method that can be applied at token- or sentence-levels to debias pre-trained contextualised embeddings. Our proposed method can be applied to any pre-trained contextualised embedding model, without requiring to retrain those models. Using gender bias as an illustrative example, we then conduct a systematic study using several state-of-the-art (SoTA) contextualised representations on multiple benchmark datasets to evaluate the level of biases encoded in different contextualised embeddings before and after debiasing using the proposed method. We find that applying token-level debiasing for all tokens and across all layers of a contextualised embedding model produces the best performance. Interestingly, we observe that there is a trade-off between creating an accurate vs. unbiased contextualised embedding model, and different contextualised embedding models respond differently to this trade-off.
翻訳日:2021-03-20 12:21:34 公開日:2021-01-23
# (参考訳) 辞書による事前学習語埋め込みの劣化 [全文訳有]

Dictionary-based Debiasing of Pre-trained Word Embeddings ( http://arxiv.org/abs/2101.09525v1 )

ライセンス: CC BY 4.0
Masahiro Kaneko and Danushka Bollegala(参考訳) 大きなコーパスで訓練された単語埋め込みは、高いレベルの不公平な差別性、人種、宗教的、民族的偏見を符号化している。 対照的に、人間による辞書は、簡潔で客観的で偏見のない方法で単語の意味を記述する。 本稿では,辞書を用いて事前学習した単語埋め込みを,元のトレーニングリソースへのアクセスや使用する単語埋め込みアルゴリズムに関する知識を必要とせずに,嫌悪する手法を提案する。 先行研究とは異なり,提案手法では単語リストの形で事前に定義するバイアスのタイプを必要とせず,単語の辞書定義から単語埋め込みの偏りが自動的に満たさなければならない制約を学習する。 具体的には、(a)事前学習された単語埋め込みのセマンティクスを保持するように、入力単語埋め込みのバイアス付きバージョンを生成するエンコーダを学習し、(b)辞書に従って単語のバイアスなし定義と一致し、(c)事前学習された単語埋め込み空間のバイアス付き基底ベクトルにまたがるベクトル空間に直交する。 標準ベンチマークデータセットにおける実験結果から,提案手法は,事前学習された単語埋め込みで符号化された不公平なバイアスを,有用なセマンティクスを保ちながら正確に除去できることがわかった。

Word embeddings trained on large corpora have shown to encode high levels of unfair discriminatory gender, racial, religious and ethnic biases. In contrast, human-written dictionaries describe the meanings of words in a concise, objective and an unbiased manner. We propose a method for debiasing pre-trained word embeddings using dictionaries, without requiring access to the original training resources or any knowledge regarding the word embedding algorithms used. Unlike prior work, our proposed method does not require the types of biases to be pre-defined in the form of word lists, and learns the constraints that must be satisfied by unbiased word embeddings automatically from dictionary definitions of the words. Specifically, we learn an encoder to generate a debiased version of an input word embedding such that it (a) retains the semantics of the pre-trained word embeddings, (b) agrees with the unbiased definition of the word according to the dictionary, and (c) remains orthogonal to the vector space spanned by any biased basis vectors in the pre-trained word embedding space. Experimental results on standard benchmark datasets show that the proposed method can accurately remove unfair biases encoded in pre-trained word embeddings, while preserving useful semantics.
翻訳日:2021-03-20 12:01:57 公開日:2021-01-23
# (参考訳) LudiiとPolygamesを用いた汎用ゲームのための深層学習 [全文訳有]

Deep Learning for General Game Playing with Ludii and Polygames ( http://arxiv.org/abs/2101.09562v1 )

ライセンス: CC BY 4.0
Dennis J. N. J. Soemers, Vegard Mella, Cameron Browne, Olivier Teytaud(参考訳) モンテカルロ木探索とディープニューラルネットワークの組み合わせは、多くのボードゲームにおける自動ゲームプレイのための最先端の結果を生み出している。 トレーニングと検索のアルゴリズムはゲーム固有のものではないが、これらのアプローチが適用される個々のゲームには、ゲームのルールの実装やニューラルネットワークのアーキテクチャ、特に入力と出力のテンソルの形状に関するドメイン知識がまだ必要である。 ludiiは、すでに500以上のゲームがある汎用ゲームシステムであり、強力なユーザーフレンドリーなゲーム記述言語のおかげで急速に成長することができる。 polygamesはトレーニングと検索アルゴリズムを備えたフレームワークで、すでにいくつかのボードゲームでスーパーヒューマンプレイヤーを制作している。 本稿では,LudiiとPolygamesのブリッジの実装について述べる。 代わりに、ludiiシステムとその抽象状態に関する我々のドメイン知識を活用し、ludiiで実装されたゲームに対して、入力および出力テンソルの適切な形状を自動的に決定できる関数を記述するために表現を移動します。 各種ボードゲームにおけるショートトレーニングの実行実験結果について述べるとともに,今後の研究への課題と道筋について述べる。

Combinations of Monte-Carlo tree search and Deep Neural Networks, trained through self-play, have produced state-of-the-art results for automated game-playing in many board games. The training and search algorithms are not game-specific, but every individual game that these approaches are applied to still requires domain knowledge for the implementation of the game's rules, and constructing the neural network's architecture -- in particular the shapes of its input and output tensors. Ludii is a general game system that already contains over 500 different games, which can rapidly grow thanks to its powerful and user-friendly game description language. Polygames is a framework with training and search algorithms, which has already produced superhuman players for several board games. This paper describes the implementation of a bridge between Ludii and Polygames, which enables Polygames to train and evaluate models for games that are implemented and run through Ludii. We do not require any game-specific domain knowledge anymore, and instead leverage our domain knowledge of the Ludii system and its abstract state and move representations to write functions that can automatically determine the appropriate shapes for input and output tensors for any game implemented in Ludii. We describe experimental results for short training runs in a wide variety of different board games, and discuss several open problems and avenues for future research.
翻訳日:2021-03-20 11:38:15 公開日:2021-01-23
# (参考訳) ジェネレーティブ・ディバイサル・ネットワークを用いた法定CNNへのトランスファー可能な反法定攻撃 [全文訳有]

A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative Adversarial Network ( http://arxiv.org/abs/2101.09568v1 )

ライセンス: CC BY 4.0
Xinwei Zhao, Chen Chen, Matthew C. Stamm(参考訳) 深層学習の発展に伴い、画像偽造の検出や識別といったタスクのマルチメディア法医学において、畳み込みニューラルネットワーク(CNN)が広く使われている。 一方、CNNベースの法医学アルゴリズムを騙すために、反法医学的攻撃が開発されている。 以前の反forensic攻撃は、操作のセットとは対照的に、単一の操作操作で残る偽造の痕跡を取り除くよう設計されていた。 さらに、近年の研究では、既存の法医学的cnnに対する反フォレンス攻撃は、転送能力に乏しいことが示されている。 訓練中に明示的に使用されなかった他の法医学的CNNを騙すことはできない。 本稿では,様々な操作操作が残した法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。 この攻撃は転送可能である。 それは、攻撃者にとって未知の法医学的なcnnを攻撃するために使用され、人間の目には知覚できない最小限の歪みだけをもたらす。 提案攻撃はGAN(Generative Adversarial Network)を用いて,任意のサイズのカラー画像に攻撃できるジェネレータを構築する。 我々は,新たな訓練戦略と損失関数を用いて攻撃伝達性を実現する。 我々は、我々の攻撃が攻撃者に利用可能な様々なレベルの知識を持つ多くの最先端のCNNを騙すことができることを示すための広範な実験を行う。

With the development of deep learning, convolutional neural networks (CNNs) have become widely used in multimedia forensics for tasks such as detecting and identifying image forgeries. Meanwhile, anti-forensic attacks have been developed to fool these CNN-based forensic algorithms. Previous anti-forensic attacks often were designed to remove forgery traces left by a single manipulation operation as opposed to a set of manipulations. Additionally, recent research has shown that existing anti-forensic attacks against forensic CNNs have poor transferability, i.e. they are unable to fool other forensic CNNs that were not explicitly used during training. In this paper, we propose a new anti-forensic attack framework designed to remove forensic traces left by a variety of manipulation operations. This attack is transferable, i.e. it can be used to attack forensic CNNs are unknown to the attacker, and it introduces only minimal distortions that are imperceptible to human eyes. Our proposed attack utilizes a generative adversarial network (GAN) to build a generator that can attack color images of any size. We achieve attack transferability through the use of a new training strategy and loss function. We conduct extensive experiment to demonstrate that our attack can fool many state-of-art forensic CNNs with varying levels of knowledge available to the attacker.
翻訳日:2021-03-20 11:21:24 公開日:2021-01-23
# (参考訳) トップスクールの生徒は教授にもっと批判的か? RateMyProfessor.comのマイニングコメント [全文訳有]

Are Top School Students More Critical of Their Professors? Mining Comments on RateMyProfessor.com ( http://arxiv.org/abs/2101.12339v1 )

ライセンス: CC BY 4.0
Ziqi Tang, Yutong Wang, Jiebo Luo(参考訳) RateMyProfessor.comの学生レビューとコメントは、学生の現実的な学習経験を反映している。 このような情報は、講師の教育的品質を調べるための大規模なデータソースを提供する。 本稿では,これらのコメントの詳細な分析を提案する。 まず、データを異なる比較グループに分割する。 次に,探索的データ解析を行い,そのデータを探索する。 さらに,潜在ディリクレ割当と感情分析を用いて話題を抽出し,コメントに関連付けられた感情を理解する。 大学生と教授の双方の特徴に関する興味深い知見を明らかにする。 本研究は,学生のレビューやコメントに重要な情報が含まれており,授業や大学への入学に欠かせない参考文献として利用できることを実証する。

Student reviews and comments on RateMyProfessor.com reflect realistic learning experiences of students. Such information provides a large-scale data source to examine the teaching quality of the lecturers. In this paper, we propose an in-depth analysis of these comments. First, we partition our data into different comparison groups. Next, we perform exploratory data analysis to delve into the data. Furthermore, we employ Latent Dirichlet Allocation and sentiment analysis to extract topics and understand the sentiments associated with the comments. We uncover interesting insights about the characteristics of both college students and professors. Our study proves that student reviews and comments contain crucial information and can serve as essential references for enrollment in courses and universities.
翻訳日:2021-03-20 10:33:22 公開日:2021-01-23
# (参考訳) ReliefE: マニフォールド埋め込みによる高次元空間の特徴ランク付け

ReliefE: Feature Ranking in High-dimensional Spaces via Manifold Embeddings ( http://arxiv.org/abs/2101.09577v1 )

ライセンス: CC BY 4.0
Bla\v{z} \v{S}krlj, Sa\v{s}o D\v{z}eroski, Nada Lavra\v{c} and Matej Petkovi\'c(参考訳) 特徴ランキングは、高スループット生物学や社会科学などの機械学習アプリケーションで広く採用されている。 一般的なレリーフ・ファミリのアルゴリズムのアプローチは、最も重要で無関係なインスタンスを反復的に計算することで、特徴に重要性を割り当てる。 高い実用性にもかかわらず、これらのアルゴリズムは計算コストが高く、高次元スパース入力空間に適している。 対照的に、最近の埋め込み型手法はコンパクトで低次元の表現を学習し、従来の学習者の下流学習能力を促進する可能性がある。 本稿では、与えられた埋め込みの次元性が考慮されたデータセットの次元性に内在する、例と対象空間の(リーマン多様体に基づく)埋め込みの恩恵を受けるアルゴリズムのレリーフブランチについて検討する。 開発したReliefEアルゴリズムはより高速で,マルチクラスおよびマルチラベル分類タスクを対象とした20のリアルタイムデータセットの評価結果から,より優れた特徴ランク付けを実現することができる。 高次元データセットに対するReliefEの有用性は、スパース行列代数演算を利用する実装によって保証される。 最後に,他のランキングアルゴリズムとの関係をファジィjaccard indexを用いて検討する。

Feature ranking has been widely adopted in machine learning applications such as high-throughput biology and social sciences. The approaches of the popular Relief family of algorithms assign importances to features by iteratively accounting for nearest relevant and irrelevant instances. Despite their high utility, these algorithms can be computationally expensive and not-well suited for high-dimensional sparse input spaces. In contrast, recent embedding-based methods learn compact, low-dimensional representations, potentially facilitating down-stream learning capabilities of conventional learners. This paper explores how the Relief branch of algorithms can be adapted to benefit from (Riemannian) manifold-based embeddings of instance and target spaces, where a given embedding's dimensionality is intrinsic to the dimensionality of the considered data set. The developed ReliefE algorithm is faster and can result in better feature rankings, as shown by our evaluation on 20 real-life data sets for multi-class and multi-label classification tasks. The utility of ReliefE for high-dimensional data sets is ensured by its implementation that utilizes sparse matrix algebraic operations. Finally, the relation of ReliefE to other ranking algorithms is studied via the Fuzzy Jaccard Index.
翻訳日:2021-03-20 10:25:07 公開日:2021-01-23
# 多層HMMを用いた屋内グループ活動認識

Indoor Group Activity Recognition using Multi-Layered HMMs ( http://arxiv.org/abs/2101.10857v1 )

ライセンス: Link先を確認
Vinayak Elangovan(参考訳) 画像データ処理に基づくグループ活動(ga)の発見と認識は,インターネットサービスにおいて重要な役割を果たす永続的監視システムにおいて重要な役割を担っている。 このプロセスは時空間的関連を持つ逐次画像データの解析に関わっている。 映像の識別には、凝集観察を識別し、識別し、それらを既知のオントロジーに関連付けることのできる適切な推論システムが必要である。 本稿では,グループ活動における事象の列を識別・分類できる適切な推論モデルを用いたオントロジーに基づくGARを提案する。 多層隠れマルコフモデル(HMM)は抽象GAの異なるレベルを認識するために提案される。 多層HMMはHMMのN層から構成され、各層はM個のHMMが並列に走る。 レイヤの数は、抽出される情報の順序に依存する。 各層において、検出されたグループイベントの属性を一致させ、関連付けることで、モデルは既知のオントロジー知覚と感覚観察を関連付けようとする。 本稿では,HMMの3つの異なる実装,すなわち,結合型N-HMM,カスケード型C-HMM,ハイブリッド型H-HMMの性能を比較して比較する。

Discovery and recognition of Group Activities (GA) based on imagery data processing have significant applications in persistent surveillance systems, which play an important role in some Internet services. The process is involved with analysis of sequential imagery data with spatiotemporal associations. Discretion of video imagery requires a proper inference system capable of discriminating and differentiating cohesive observations and interlinking them to known ontologies. We propose an Ontology based GAR with a proper inference model that is capable of identifying and classifying a sequence of events in group activities. A multi-layered Hidden Markov Model (HMM) is proposed to recognize different levels of abstract GA. The multi-layered HMM consists of N layers of HMMs where each layer comprises of M number of HMMs running in parallel. The number of layers depends on the order of information to be extracted. At each layer, by matching and correlating attributes of detected group events, the model attempts to associate sensory observations to known ontology perceptions. This paper demonstrates and compares performance of three different implementation of HMM, namely, concatenated N-HMM, cascaded C-HMM and hybrid H-HMM for building effective multi-layered HMM.
翻訳日:2021-03-19 10:52:19 公開日:2021-01-23
# 注意型ニューラルマシン翻訳を用いた地球観測データを用いた自然言語質問応答

Towards Natural Language Question Answering over Earth Observation Linked Data using Attention-based Neural Machine Translation ( http://arxiv.org/abs/2101.09427v1 )

ライセンス: Link先を確認
Abhishek V. Potnis, Rajat C. Shinde, Surya S. Durbha(参考訳) Geospatial Linked Open Dataの採用とWeb上での公開により、このようなリッチなヘテロジニアスなマルチモーダルデータセットのシームレスかつ効率的な探索的分析のための直感的なインターフェースとシステムを開発する必要がある。 この研究は、クエリーを容易にする自然言語インタフェースを開発することにより、地球観測(EO)リンクデータの探索プロセスの改善を目的としている。 地球観測リンクデータに関する質問は、本質的に時空間次元を持ち、GeoSPARQLを使って表現することができる。 本稿では,自然言語質問からGeoSPARQLクエリへの変換を目的とした,RNNに基づくニューラルネットワーク翻訳の検討と解析を行う。 具体的には、自然言語における空間述語を、-egenhofer と rcc8 の関係を含む geosparql のトポロジー語彙拡張に識別・マッピングするための神経アプローチの実現可能性を評価することを目的としている。 クエリはトリプルストア上で実行され、自然言語の質問に対する回答が得られる。 自然言語の質問から、Corine Land Cover(CLC)上のGeoSPARQLクエリへのマッピングからなるデータセットが作成され、ディープニューラルネットワークのトレーニングと検証が行われた。 実験から,自然言語質問における空間述語をGeoSPARQLクエリに翻訳する作業において,注意を伴うニューラルマシン翻訳が有望なアプローチであることは明らかである。

With an increase in Geospatial Linked Open Data being adopted and published over the web, there is a need to develop intuitive interfaces and systems for seamless and efficient exploratory analysis of such rich heterogeneous multi-modal datasets. This work is geared towards improving the exploration process of Earth Observation (EO) Linked Data by developing a natural language interface to facilitate querying. Questions asked over Earth Observation Linked Data have an inherent spatio-temporal dimension and can be represented using GeoSPARQL. This paper seeks to study and analyze the use of RNN-based neural machine translation with attention for transforming natural language questions into GeoSPARQL queries. Specifically, it aims to assess the feasibility of a neural approach for identifying and mapping spatial predicates in natural language to GeoSPARQL's topology vocabulary extension including - Egenhofer and RCC8 relations. The queries can then be executed over a triple store to yield answers for the natural language questions. A dataset consisting of mappings from natural language questions to GeoSPARQL queries over the Corine Land Cover(CLC) Linked Data has been created to train and validate the deep neural network. From our experiments, it is evident that neural machine translation with attention is a promising approach for the task of translating spatial predicates in natural language questions to GeoSPARQL queries.
翻訳日:2021-03-19 10:51:46 公開日:2021-01-23
# ARTH: テキストを手作業で読むアルゴリズム - 単語処理の問題に対処するAI支援

ARTH: Algorithm For Reading Text Handily -- An AI Aid for People having Word Processing Issues ( http://arxiv.org/abs/2101.09464v1 )

ライセンス: Link先を確認
Akanksha Malhotra and Sudhir Kamle(参考訳) このプロジェクトの目的は、トラウマや軽度の精神障害といった単語処理の問題に直面する大きな問題の1つを解決することである。 ARTHは、手軽に読むアルゴリズムの短い形式である。 ARTHは、すべてのユーザのニーズに応じて調整される“テキストの読み上げと理解”の必要性を満たすインテリジェントな方法である、自己学習アルゴリズムのセットである。 研究プロジェクトは2つのステップで伝播します。 最初のステップでは、アルゴリズムは、クラスタリングアルゴリズムを使用して、音節数と使用頻度という2つの特徴に基づいて、テキストに存在する難しい単語を識別しようとする。 クラスタの分析の後、アルゴリズムはその難易度に応じてこれらのクラスタをラベル付けする。 第2のステップでは、アルゴリズムがユーザと対話する。 自動生成クイズを用いて,ユーザのテキストの理解度と語彙レベルをテストすることを目的とする。 このアルゴリズムは,分析結果に基づいて,ユーザにとって困難なクラスタを識別する。 それらの横に知覚困難な単語の意味が表示される。 ARTH」技術は、語彙が乏しい人や、言葉処理の問題のある人の間で読書の喜びが復活することに焦点を当てている。

The objective of this project is to solve one of the major problems faced by the people having word processing issues like trauma, or mild mental disability. "ARTH" is the short form of Algorithm for Reading Handily. ARTH is a self-learning set of algorithms that is an intelligent way of fulfilling the need for "reading and understanding the text effortlessly" which adjusts according to the needs of every user. The research project propagates in two steps. In the first step, the algorithm tries to identify the difficult words present in the text based on two features -- the number of syllables and usage frequency -- using a clustering algorithm. After the analysis of the clusters, the algorithm labels these clusters, according to their difficulty level. In the second step, the algorithm interacts with the user. It aims to test the user's comprehensibility of the text and his/her vocabulary level by taking an automatically generated quiz. The algorithm identifies the clusters which are difficult for the user, based on the result of the analysis. The meaning of perceived difficult words is displayed next to them. The technology "ARTH" focuses on the revival of the joy of reading among those people, who have a poor vocabulary or any word processing issues.
翻訳日:2021-03-19 10:51:25 公開日:2021-01-23
# ラベルなし主成分分析

Unlabeled Principal Component Analysis ( http://arxiv.org/abs/2101.09446v1 )

ライセンス: Link先を確認
Yunzhen Yao, Liangzu Peng and Manolis C. Tsakiris(参考訳) 我々は、各列のエントリが未知の置換(unlabeled principal component analysis (upca) と呼ばれる)を受けるデータ行列から主成分分析の問題を考える。 代数幾何学を用いて、十分一般的なデータと、周囲の空間の座標の置換について、データを説明する極小次元の一意な部分空間が存在することを立証する。 多項式方程式の置換不変系は有限個の解を持ち、各解は基底トラスデータ行列の行置換に対応する。 置換点上に欠落するエントリが与えられると、ラベルなし行列完備化の問題が起こり、同様のフレーバーの理論的結果が得られる。 また,データのほんの一部しか置換されていない場合に適したupcaのための2段階のアルゴリズムパイプラインを提案する。 このパイプラインのステージiはロバスト-pca法を用いて地上列空間を推定する。 列空間を具備したステージIIでは、順列データを復元するための対応のない線形回帰法を適用している。 計算研究では、UPCAが標準的なデスクトップコンピュータで任意のサイズの任意のサイズのパッチを0.3ドル秒で任意に置換した拡張Yale-Bデータベースから顔画像を処理する機能を含む、奨励的な発見を明らかにしている。

We consider the problem of principal component analysis from a data matrix where the entries of each column have undergone some unknown permutation, termed Unlabeled Principal Component Analysis (UPCA). Using algebraic geometry, we establish that for generic enough data, and up to a permutation of the coordinates of the ambient space, there is a unique subspace of minimal dimension that explains the data. We show that a permutation-invarian t system of polynomial equations has finitely many solutions, with each solution corresponding to a row permutation of the ground-truth data matrix. Allowing for missing entries on top of permutations leads to the problem of unlabeled matrix completion, for which we give theoretical results of similar flavor. We also propose a two-stage algorithmic pipeline for UPCA suitable for the practically relevant case where only a fraction of the data has been permuted. Stage-I of this pipeline employs robust-PCA methods to estimate the ground-truth column-space. Equipped with the column-space, stage-II applies methods for linear regression without correspondences to restore the permuted data. A computational study reveals encouraging findings, including the ability of UPCA to handle face images from the Extended Yale-B database with arbitrarily permuted patches of arbitrary size in $0.3$ seconds on a standard desktop computer.
翻訳日:2021-03-19 10:51:06 公開日:2021-01-23
# 強化学習を用いた特徴選択

Feature Selection Using Reinforcement Learning ( http://arxiv.org/abs/2101.09460v1 )

ライセンス: Link先を確認
Sali Rasoul, Sodiq Adewole, Alphonse Akakpo(参考訳) データ収集のコストが低下するにつれて、特定の関心の予測器を特徴づける変数や特徴の空間は指数関数的に増加し続けている。 したがって、モデルのバイアスを損なうことなく分散を最小化する最も特徴付けられる特徴を識別することは、機械学習モデルをうまくトレーニングするのに不可欠である。 また,これらの特徴の同定は,解釈可能性,予測精度,最適計算コストにおいて重要である。 特徴集合の選択には, 部分集合選択, 縮小, 次元減少などの統計的手法が適用されているが, 検索空間の各状態が特徴集合となるような探索問題として, 文献上の他の手法が特徴選択タスクにアプローチしている。 本稿では,強化学習を用いて特徴選択問題を解く。 状態空間をマルコフ決定過程 (MDP) として定式化し, 時間差分法 (TD) アルゴリズムを用いて特徴量の最適部分集合を選択する。 各状態は、データセットのどの非線形性も扱えるロバストで低コストな分類アルゴリズムを用いて評価された。

With the decreasing cost of data collection, the space of variables or features that can be used to characterize a particular predictor of interest continues to grow exponentially. Therefore, identifying the most characterizing features that minimizes the variance without jeopardizing the bias of our models is critical to successfully training a machine learning model. In addition, identifying such features is critical for interpretability, prediction accuracy and optimal computation cost. While statistical methods such as subset selection, shrinkage, dimensionality reduction have been applied in selecting the best set of features, some other approaches in literature have approached feature selection task as a search problem where each state in the search space is a possible feature subset. In this paper, we solved the feature selection problem using Reinforcement Learning. Formulating the state space as a Markov Decision Process (MDP), we used Temporal Difference (TD) algorithm to select the best subset of features. Each state was evaluated using a robust and low cost classifier algorithm which could handle any non-linearities in the dataset.
翻訳日:2021-03-19 10:50:47 公開日:2021-01-23
# 動的プログラミングによる系列の教師なしクラスタリング

Unsupervised clustering of series using dynamic programming ( http://arxiv.org/abs/2101.09512v1 )

ライセンス: Link先を確認
Karthigan Sinnathamby, Chang-Yu Hou, Lalitha Venkataramanan, Vasileios-Marios Gkortsas, Fran\c{c}ois Fleuret(参考訳) 我々は、与えられた単一の多変量級数の一部を教師なしの方法でクラスタリングすることに興味を持っている。 各クラスタに存在するブロックが既知のモデル(例えば、)に対して整合的であるように、シリーズを分割してクラスタ化したい。 物理モデル)。 データポイントがコヒーレントであるとは、同じパラメータを持つこのモデルを使って記述できる場合である。 我々は,クラスタ数,遷移数,ブロックの最小サイズに制約を課した動的プログラミングに基づくアルゴリズムを設計した。 We present an use-case: clustering of petrophysical series using the Waxman-Smits equation。

We are interested in clustering parts of a given single multi-variate series in an unsupervised manner. We would like to segment and cluster the series such that the resulting blocks present in each cluster are coherent with respect to a known model (e.g. physics model). Data points are said to be coherent if they can be described using this model with the same parameters. We have designed an algorithm based on dynamic programming with constraints on the number of clusters, the number of transitions as well as the minimal size of a block such that the clusters are coherent with this process. We present an use-case: clustering of petrophysical series using the Waxman-Smits equation.
翻訳日:2021-03-19 10:50:28 公開日:2021-01-23
# メモリ効率のよい半教師付き連続学習:世界は独自のリプレイバッファである

Memory-Efficient Semi-Supervised Continual Learning: The World is its Own Replay Buffer ( http://arxiv.org/abs/2101.09536v1 )

ライセンス: Link先を確認
James Smith, Jonathan Balloch, Yen-Chang Hsu, Zsolt Kira(参考訳) リハーサルは、クラス増分連続学習にとって重要な要素であるが、かなりのメモリ予算を必要とする。 本研究は,エージェント環境からのラベルなしデータを活用することで,メモリ予算を大幅に削減できるかどうかを,現実的で挑戦的な連続学習パラダイムで検討する。 具体的には、ラベル付きデータが少ないが非i.d.で、新しい半教師付き連続学習(SSCL)を探索し、形式化する。 エージェントの環境からのラベルなしデータは 豊富です 重要なことは、SSCL設定におけるデータ分布は現実的であり、したがってラベル付きおよびラベルなしのデータ分布間のオブジェクトクラス相関を反映する。 本稿では, 疑似ラベル付け, 整合正則化, OoD(Out-of-Distribut ion)検出, 知識蒸留により, この設定での忘れを少なくする戦略を示す。 我々のアプローチであるDistillMatchは、SSCL CIFAR-100実験において、平均タスク精度を8.7%以下に向上し、平均タスク精度を54.5%向上させる。 さらに,0.08 しか保存しない次の最良法と比較して,処理未ラベル画像毎に最大 0.23 個の保存画像を保存することができることを示した。 その結果,現実的な相関分布に着目することは,世界構造を継続的な学習戦略として活用することの重要性を強調させる,極めて新しい視点であることが示唆された。

Rehearsal is a critical component for class-incremental continual learning, yet it requires a substantial memory budget. Our work investigates whether we can significantly reduce this memory budget by leveraging unlabeled data from an agent's environment in a realistic and challenging continual learning paradigm. Specifically, we explore and formalize a novel semi-supervised continual learning (SSCL) setting, where labeled data is scarce yet non-i.i.d. unlabeled data from the agent's environment is plentiful. Importantly, data distributions in the SSCL setting are realistic and therefore reflect object class correlations between, and among, the labeled and unlabeled data distributions. We show that a strategy built on pseudo-labeling, consistency regularization, Out-of-Distribution (OoD) detection, and knowledge distillation reduces forgetting in this setting. Our approach, DistillMatch, increases performance over the state-of-the-art by no less than 8.7% average task accuracy and up to a 54.5% increase in average task accuracy in SSCL CIFAR-100 experiments. Moreover, we demonstrate that DistillMatch can save up to 0.23 stored images per processed unlabeled image compared to the next best method which only saves 0.08. Our results suggest that focusing on realistic correlated distributions is a significantly new perspective, which accentuates the importance of leveraging the world's structure as a continual learning strategy.
翻訳日:2021-03-19 10:50:16 公開日:2021-01-23
# Show or Suppress? 機械学習モデル説明における入力不確かさの管理

Show or Suppress? Managing Input Uncertainty in Machine Learning Model Explanations ( http://arxiv.org/abs/2101.09498v1 )

ライセンス: Link先を確認
Danding Wang, Wencan Zhang and Brian Y. Lim(参考訳) 特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。 しかし、測定は不確かであり、入力の不確実性に対する認識が説明の信頼にどのように影響するかは不明である。 モデル説明において,ユーザが不確実性に対する認識を管理するための2つのアプローチを提案する。1)特徴属性の不確実性を透過的に示し,2)不確実性のある特徴への寄与を抑え,また,不確実性ペナルティで規則化することで他の特徴への帰属を抑える。 シミュレーション実験,質的インタビュー,定量的ユーザ評価を通じて,帰属不確実性を適度に抑制するメリット,帰属不確実性を示すことへの懸念を明らかにした。 この作業は、モデル解釈可能性の扱いや不確実性に関する理解を深める。

Feature attribution is widely used in interpretable machine learning to explain how influential each measured input feature value is for an output inference. However, measurements can be uncertain, and it is unclear how the awareness of input uncertainty can affect the trust in explanations. We propose and study two approaches to help users to manage their perception of uncertainty in a model explanation: 1) transparently show uncertainty in feature attributions to allow users to reflect on, and 2) suppress attribution to features with uncertain measurements and shift attribution to other features by regularizing with an uncertainty penalty. Through simulation experiments, qualitative interviews, and quantitative user evaluations, we identified the benefits of moderately suppressing attribution uncertainty, and concerns regarding showing attribution uncertainty. This work adds to the understanding of handling and communicating uncertainty for model interpretability.
翻訳日:2021-03-19 10:49:51 公開日:2021-01-23
# B-HAR:人間の活動認識データセットとワークフローを深く研究するためのオープンソースのベースラインフレームワーク

B-HAR: an open-source baseline framework for in depth study of human activity recognition datasets and workflows ( http://arxiv.org/abs/2101.10870v1 )

ライセンス: Link先を確認
Florenc Demrozi, Cristian Turetta, Graziano Pravadelli(参考訳) 機械学習アルゴリズムに基づくヒューマンアクティビティ認識(HAR)は、様々なカテゴリーの人々(例えば、アスリート、高齢者、子供、雇用主)の職業的および日常生活活動を監視する最も有望な技術の一つと考えられており、福祉、技術的パフォーマンスの強化、リスク状況の防止、教育目的など、様々なサービスを提供している。 しかし,HAR手法の有効性と効率性の分析は,パターン認識モデルの品質評価の基準となる標準ワークフローの欠如に悩まされている。 これにより、異なるアプローチの比較が困難なタスクになる。 さらに、研究者は、検出されない場合、達成した結果に確実に影響を及ぼす間違いを犯すことができる。 そこで本稿では,HAR手法の評価と比較を目的としたベースラインフレームワークの定義,標準化,開発のための,B-HARというオープンソースの自動・高構成可能なフレームワークを提案する。 データ準備のための最も一般的なデータ処理方法と、最も一般的な機械学習およびディープラーニングパターン認識モデルを実装している。

Human Activity Recognition (HAR), based on machine and deep learning algorithms is considered one of the most promising technologies to monitor professional and daily life activities for different categories of people (e.g., athletes, elderly, kids, employers) in order to provide a variety of services related, for example to well-being, empowering of technical performances, prevention of risky situation, and educational purposes. However, the analysis of the effectiveness and the efficiency of HAR methodologies suffers from the lack of a standard workflow, which might represent the baseline for the estimation of the quality of the developed pattern recognition models. This makes the comparison among different approaches a challenging task. In addition, researchers can make mistakes that, when not detected, definitely affect the achieved results. To mitigate such issues, this paper proposes an open-source automatic and highly configurable framework, named B-HAR, for the definition, standardization, and development of a baseline framework in order to evaluate and compare HAR methodologies. It implements the most popular data processing methods for data preparation and the most commonly used machine and deep learning pattern recognition models.
翻訳日:2021-03-19 10:49:32 公開日:2021-01-23
# 逆例に対する誤差拡散ハーフトニング

Error Diffusion Halftoning Against Adversarial Examples ( http://arxiv.org/abs/2101.09451v1 )

ライセンス: Link先を確認
Shao-Yuan Lo and Vishal M. Patel(参考訳) 敵対的な例としては、ディープニューラルネットワーク(DNN)を騙して誤った予測をすることができる、慎重に構築された摂動がある。 近年、DNNの敵対的堅牢性を高めることが大きな関心を集めている。 画像変換に基づく防御は以前から広く検討されていたが、そのほとんどは適応攻撃によって打ち負かされている。 本稿では,誤り拡散ハーフトニングに基づく新たな画像変換防御法を提案する。 誤差拡散ハーフトニングは画像を1ビット空間に投影し、隣接するピクセルに量子化誤差を拡散する。 このプロセスは、認識に有利な画像品質を維持しつつ、所定の画像から敵の摂動を取り除くことができる。 実験の結果,提案手法はアドバンス・アダプティブ・アタック(advanced adaptive attack,advanced adaptive attack,advanced adversarial robustness,advanced) においても頑健性が向上することが示された。 適切な画像変換が効果的な防御手法であることを示す。

Adversarial examples contain carefully crafted perturbations that can fool deep neural networks (DNNs) into making wrong predictions. Enhancing the adversarial robustness of DNNs has gained considerable interest in recent years. Although image transformation-based defenses were widely considered at an earlier time, most of them have been defeated by adaptive attacks. In this paper, we propose a new image transformation defense based on error diffusion halftoning, and combine it with adversarial training to defend against adversarial examples. Error diffusion halftoning projects an image into a 1-bit space and diffuses quantization error to neighboring pixels. This process can remove adversarial perturbations from a given image while maintaining acceptable image quality in the meantime in favor of recognition. Experimental results demonstrate that the proposed method is able to improve adversarial robustness even under advanced adaptive attacks, while most of the other image transformation-based defenses do not. We show that a proper image transformation can still be an effective defense approach.
翻訳日:2021-03-19 10:48:54 公開日:2021-01-23
# 単眼画像を用いた実時間飛行可能非協力型宇宙船ポーズ推定

Real-Time, Flight-Ready, Non-Cooperative Spacecraft Pose Estimation Using Monocular Imagery ( http://arxiv.org/abs/2101.09553v1 )

ライセンス: Link先を確認
Kevin Black, Shrivu Shankar, Daniel Fonseka, Jacob Deutsch, Abhimanyu Dhir, and Maruthi R. Akella(参考訳) 自律軌道上での近接操作のための重要な要件は、標的宇宙船の相対的な姿勢(位置と向き)の推定である。 コスト、重量、電力の要求が低いため、この問題に対して単眼カメラを採用することが望ましい。 本研究では,新しい畳み込みニューラルネットワーク(CNN)を用いた単眼ポーズ推定システムを提案する。 ブレンダーベースの合成データ生成スキームと組み合わせて、システムは純粋に合成されたトレーニングデータから、ノースロップ・グラマン拡張シグナスの実際の宇宙画像に一般化する能力を示す。 さらに,低消費電力飛行型ハードウェア上でのリアルタイム性能を実現する。

A key requirement for autonomous on-orbit proximity operations is the estimation of a target spacecraft's relative pose (position and orientation). It is desirable to employ monocular cameras for this problem due to their low cost, weight, and power requirements. This work presents a novel convolutional neural network (CNN)-based monocular pose estimation system that achieves state-of-the-art accuracy with low computational demand. In combination with a Blender-based synthetic data generation scheme, the system demonstrates the ability to generalize from purely synthetic training data to real in-space imagery of the Northrop Grumman Enhanced Cygnus spacecraft. Additionally, the system achieves real-time performance on low-power flight-like hardware.
翻訳日:2021-03-19 10:48:35 公開日:2021-01-23
# S-BEV:Smantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization

S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization ( http://arxiv.org/abs/2101.09569v1 )

ライセンス: Link先を確認
Mokshith Voodarla, Shubham Shrivastava, Sagar Manglani, Ankit Vora, Siddharth Agarwal, Punarjay Chakravarty(参考訳) 視覚に基づく車両再局在化のための,軽量で気象・照明の不変なs-bev(s-bev)シグネチャについて述べる。 S-BEVシグネチャのトポロジカルマップは、ルートの最初のトラバース中に作成され、その後のルートトラバースにおける粗いローカライゼーションに使用される。 微粒なローカライザは、S-BEVと粗いローカライゼーションを使用して、車両のグローバルな3DoFポーズを出力するように訓練される。 vkitti2仮想データセットの実験を行い、s-bevが気象や照明に堅牢になる可能性を示す。 また、フォードavデータセット内の22kmの高速道路で2台の車両で結果を示す。

We describe a light-weight, weather and lighting invariant, Semantic Bird's Eye View (S-BEV) signature for vision-based vehicle re-localization. A topological map of S-BEV signatures is created during the first traversal of the route, which are used for coarse localization in subsequent route traversal. A fine-grained localizer is then trained to output the global 3-DoF pose of the vehicle using its S-BEV and its coarse localization. We conduct experiments on vKITTI2 virtual dataset and show the potential of the S-BEV to be robust to weather and lighting. We also demonstrate results with 2 vehicles on a 22 km long highway route in the Ford AV dataset.
翻訳日:2021-03-19 10:48:23 公開日:2021-01-23
# websrc: webベースの構造理解のためのデータセット

WebSRC: A Dataset for Web-Based Structural Reading Comprehension ( http://arxiv.org/abs/2101.09465v1 )

ライセンス: Link先を確認
Lu Chen, Xingyu Chen, Zihan Zhao, Danyang Zhang, Jiabao Ji, Ao Luo, Yuxuan Xiong, Kai Yu(参考訳) ウェブ検索は人間が情報を得るための必須の方法ですが、マシンがWebページの内容を理解することは依然として大きな課題です。 本稿では,Web上の構造的読解の課題を紹介する。 ウェブページとそれに関する質問が与えられたら、そのタスクはウェブページから答えを見つけることである。 このタスクは、テキストの意味だけでなく、Webページの構造を理解するためにもシステムを必要とする。 さらに,新しいWebベース構造読解データセットであるWebSRCを提案する。 WebSRCは0.44万の質問応答対で構成され、HTMLソースコード、スクリーンショット、メタデータを含む6.5KのWebページから収集される。 websrcの各質問には、答えるためにwebページの構造的な理解が必要であり、答えはwebページのテキストスパンかyes/noである。 我々は,タスクの難易度を示すために,データセット上で様々な強いベースラインを評価する。 また,構造情報と視覚特性の有用性についても検討した。 私たちのデータセットとタスクはhttps://speechlab-sj tu.github.io/websrc/ で公開されている。

Web search is an essential way for human to obtain information, but it's still a great challenge for machines to understand the contents of web pages. In this paper, we introduce the task of web-based structural reading comprehension. Given a web page and a question about it, the task is to find an answer from the web page. This task requires a system not only to understand the semantics of texts but also the structure of the web page. Moreover, we proposed WebSRC, a novel Web-based Structural Reading Comprehension dataset. WebSRC consists of 0.44M question-answer pairs, which are collected from 6.5K web pages with corresponding HTML source code, screenshots, and metadata. Each question in WebSRC requires a certain structural understanding of a web page to answer, and the answer is either a text span on the web page or yes/no. We evaluate various strong baselines on our dataset to show the difficulty of our task. We also investigate the usefulness of structural information and visual features. Our dataset and task are publicly available at https://speechlab-sj tu.github.io/WebSRC/ .
翻訳日:2021-03-19 10:48:07 公開日:2021-01-23
# バイトレベルサブワードを用いた多言語事前学習言語モデルの訓練

Training Multilingual Pre-trained Language Model with Byte-level Subwords ( http://arxiv.org/abs/2101.09469v1 )

ライセンス: Link先を確認
Junqiu Wei, Qun Liu, Yinpeng Guo, Xin Jiang(参考訳) 事前学習された言語モデルは、大規模コーパスで事前学習することで、テキスト中の深い文脈情報を取得する能力により、様々な自然言語理解(NLU)タスクで大きな成功を収めている。 事前訓練された言語モデルの基本的な構成要素の1つは語彙であり、特に多くの異なる言語で多言語モデルを訓練するためのものである。 本稿では,BBPE(Byte-Level BPE,Byte Pair Encoding)を用いた多言語事前学習言語モデルの訓練実践について述べる。 実験では、NEZHAのアーキテクチャを基礎となる事前学習言語モデルとして採用し、バイトレベルのサブワードで訓練したNEZHAが、Googleの多言語BERTとバニラNEZHAを、複数の多言語NLUタスクにおいて顕著な差で、一貫して上回っていることを示す。 我々は,バイトレベルの語彙構築ツールと多言語事前学習言語モデルのソースコードをリリースする。

The pre-trained language models have achieved great successes in various natural language understanding (NLU) tasks due to its capacity to capture the deep contextualized information in text by pre-training on large-scale corpora. One of the fundamental components in pre-trained language models is the vocabulary, especially for training multilingual models on many different languages. In the technical report, we present our practices on training multilingual pre-trained language models with BBPE: Byte-Level BPE (i.e., Byte Pair Encoding). In the experiment, we adopted the architecture of NEZHA as the underlying pre-trained language model and the results show that NEZHA trained with byte-level subwords consistently outperforms Google multilingual BERT and vanilla NEZHA by a notable margin in several multilingual NLU tasks. We release the source code of our byte-level vocabulary building tools and the multilingual pre-trained language models.
翻訳日:2021-03-19 10:47:50 公開日:2021-01-23
# 語順の進化について

On the Evolution of Word Order ( http://arxiv.org/abs/2101.09579v1 )

ライセンス: Link先を確認
Idan Rejwan and Avi Caciularu(参考訳) ほとんどの自然言語は、支配的または固定的な語順を持つ。 例えば、英語では、最もよく使われる語順はsubject-verb-objectである。 本研究は, この現象と, 語順に関する他の類型的知見を, 機能的観点から説明しようとするものである。 すなわち、固定語順が機能上の優位性を与えるかどうかという問題であり、これらの言語がなぜ一般的であるかを説明するものである。 この目的のために、言語の進化モデルを検討し、理論的および遺伝的アルゴリズムに基づくシミュレーションを用いて、最適な言語は固定語順を持つものであることを示す。 また,事例マーカーや名詞動詞の区別などの文への情報付加は,類型的発見に応じて単語の順序を固定する必要性を減少させることを示す。

Most natural languages have a predominant or fixed word order. For example, in English, the word order used most often is Subject-Verb-Object. This work attempts to explain this phenomena as well as other typological findings regarding word order from a functional perspective. That is, we target the question of whether fixed word order gives a functional advantage, that may explain why these languages are common. To this end, we consider an evolutionary model of language and show, both theoretically and using a genetic algorithm-based simulation, that an optimal language is one with fixed word order. We also show that adding information to the sentence, such as case markers and noun-verb distinction, reduces the need for fixed word order, in accordance with the typological findings.
翻訳日:2021-03-19 10:47:31 公開日:2021-01-23
# プロキシラベル付き部分ラベルデータに対する粒状条件エントロピーに基づく属性削減

Granular conditional entropy-based attribute reduction for partially labeled data with proxy labels ( http://arxiv.org/abs/2101.09495v1 )

ライセンス: Link先を確認
Can Gao, Jie Zhoua, Duoqian Miao, Xiaodong Yue, Jun Wan(参考訳) 属性還元は粗集合論において最も重要な研究テーマの一つであり,多くの粗集合に基づく属性還元法が提案されている。 しかし、その多くはラベル付きデータかラベル付きデータのいずれかを扱うために特別に設計されている。 本稿では,部分ラベル付きデータに対するラフセットに基づく半教師付き属性削減手法を提案する。 特に、データに関する事前のクラス分布情報を用いて、ラベルなしデータのプロキシラベルを生成するための簡易かつ効果的な戦略を最初に開発する。 次に、情報粒度の概念を情報理論的な尺度に統合し、それに基づいて新しい粒度条件エントロピー測度が提案され、その単調性が理論的に証明される。 さらに、部分ラベル付きデータの最適レダクトを生成するための高速ヒューリスティックアルゴリズムが提供され、無関係な例を除去し、同時に冗長な属性を除外することにより、属性削減のプロセスを加速することができる。 UCIデータセット上で行った大規模な実験により,提案手法が有望であることを示すとともに,ラベル付きデータとラベルなしデータの教師付き手法とを,分類性能の観点から比較した。

Attribute reduction is one of the most important research topics in the theory of rough sets, and many rough sets-based attribute reduction methods have thus been presented. However, most of them are specifically designed for dealing with either labeled data or unlabeled data, while many real-world applications come in the form of partial supervision. In this paper, we propose a rough sets-based semi-supervised attribute reduction method for partially labeled data. Particularly, with the aid of prior class distribution information about data, we first develop a simple yet effective strategy to produce the proxy labels for unlabeled data. Then the concept of information granularity is integrated into the information-theoreti c measure, based on which, a novel granular conditional entropy measure is proposed, and its monotonicity is proved in theory. Furthermore, a fast heuristic algorithm is provided to generate the optimal reduct of partially labeled data, which could accelerate the process of attribute reduction by removing irrelevant examples and excluding redundant attributes simultaneously. Extensive experiments conducted on UCI data sets demonstrate that the proposed semi-supervised attribute reduction method is promising and even compares favourably with the supervised methods on labeled data and unlabeled data with true labels in terms of classification performance.
翻訳日:2021-03-19 10:46:47 公開日:2021-01-23
# 非共用カメラによる固定視点ミラー面再構成

Fixed Viewpoint Mirror Surface Reconstruction under an Uncalibrated Camera ( http://arxiv.org/abs/2101.09392v1 )

ライセンス: Link先を確認
Kai Han and Miaomiao Liu and Dirk Schnieders and Kwan-Yee K. Wong(参考訳) 本稿では,鏡面再構成の問題に対処し,鏡面上の移動基準面の反射を観測する手法を提案する。 面倒なキャリブレーションを必要とする従来のアプローチとは異なり、この手法ではカメラ内在性、基準面のポーズ、および観測された基準面の反射からの鏡面を少なくとも3つの未知の異なるポーズで復元することができる。 まず、画像と基準平面との間に設定された反射対応から基準平面の3次元ポーズを推定できることを示す。 次に、反射対応から一連の3d線を形成し、線投影行列を回復するための解析解を導出する。 線投影行列を等価なカメラ投影行列に変換し、再投影誤差を最小化してカメラ投影行列を最適化するクロス比式を提案する。 そして、最適化された横比制約に基づいて鏡面を再構成する。 合成データと実データの両方について実験結果を示し,本手法の有効性と精度を示した。

This paper addresses the problem of mirror surface reconstruction, and proposes a solution based on observing the reflections of a moving reference plane on the mirror surface. Unlike previous approaches which require tedious calibration, our method can recover the camera intrinsics, the poses of the reference plane, as well as the mirror surface from the observed reflections of the reference plane under at least three unknown distinct poses. We first show that the 3D poses of the reference plane can be estimated from the reflection correspondences established between the images and the reference plane. We then form a bunch of 3D lines from the reflection correspondences, and derive an analytical solution to recover the line projection matrix. We transform the line projection matrix to its equivalent camera projection matrix, and propose a cross-ratio based formulation to optimize the camera projection matrix by minimizing reprojection errors. The mirror surface is then reconstructed based on the optimized cross-ratio constraint. Experimental results on both synthetic and real data are presented, which demonstrate the feasibility and accuracy of our method.
翻訳日:2021-03-19 10:46:25 公開日:2021-01-23
# 3次元畳み込みニューラルネットワークによる次世代の回帰

Next-best-view Regression using a 3D Convolutional Neural Network ( http://arxiv.org/abs/2101.09397v1 )

ライセンス: Link先を確認
J. Irving Vasquez-Gomez and David Troncoso and Israel Becerra and Enrique Sucar and Rafael Murrieta-Cid(参考訳) 三次元3次元物体の自動再構成は、物体の表面を感知して物体の幾何学的表現を構築する作業である。 新しい単一視点の復元技術は表面を予測できるが、それらは不完全なモデル、特にアンティークオブジェクトや美術彫刻のような非一般的なオブジェクトに繋がる。 したがって、タスクの目標を達成するためには、センサーが配置される場所を自動的に決定し、表面を完全に観察することが不可欠である。 この問題は次のベストビュー問題として知られている。 本稿では,この問題に対処するためのデータ駆動アプローチを提案する。 提案手法は、3次元畳み込みニューラルネットワーク(3D CNN)をトレーニングし、次のベストビューの \btxt{position of the} を回帰する。 我々の知る限りでは、これは3Dオブジェクト再構成タスクのためのデータ駆動アプローチを用いて、連続空間における次のベストビューを直接推論する最初の作品の1つである。 提案手法を2つの実験グループを用いて検証した。 最初のグループでは、提案したアーキテクチャのいくつかの変種を分析した。 予測された次の視点は、地上の真理に密接な位置にあることが観察された。 第2の実験群では,未発見物体,すなわち,訓練中や検証中に3d cnnが考慮しない物体を再構築する手法が求められた。 カバー率は90 %までであった。 現在の最先端手法に関して,提案手法は,従来の情報メトリクスが必要とする高コストのレイトレーシングを計算できないため,従来の次回のベストビュー分類手法の性能を向上し,実行時間(3フレーム/秒)が非常に高速である。

Automated three-dimensional (3D) object reconstruction is the task of building a geometric representation of a physical object by means of sensing its surface. Even though new single view reconstruction techniques can predict the surface, they lead to incomplete models, specially, for non commons objects such as antique objects or art sculptures. Therefore, to achieve the task's goals, it is essential to automatically determine the locations where the sensor will be placed so that the surface will be completely observed. This problem is known as the next-best-view problem. In this paper, we propose a data-driven approach to address the problem. The proposed approach trains a 3D convolutional neural network (3D CNN) with previous reconstructions in order to regress the \btxt{position of the} next-best-view. To the best of our knowledge, this is one of the first works that directly infers the next-best-view in a continuous space using a data-driven approach for the 3D object reconstruction task. We have validated the proposed approach making use of two groups of experiments. In the first group, several variants of the proposed architecture are analyzed. Predicted next-best-views were observed to be closely positioned to the ground truth. In the second group of experiments, the proposed approach is requested to reconstruct several unseen objects, namely, objects not considered by the 3D CNN during training nor validation. Coverage percentages of up to 90 \% were observed. With respect to current state-of-the-art methods, the proposed approach improves the performance of previous next-best-view classification approaches and it is quite fast in running time (3 frames per second), given that it does not compute the expensive ray tracing required by previous information metrics.
翻訳日:2021-03-19 10:46:09 公開日:2021-01-23
# 1次元畳み込みとBiGRUを用いたパーキンソン病検出のためのシーケンスベース動的手書き解析

Sequence-based Dynamic Handwriting Analysis for Parkinson's Disease Detection with One-dimensional Convolutions and BiGRUs ( http://arxiv.org/abs/2101.09461v1 )

ライセンス: Link先を確認
Moises Diaz, Momina Moetesum, Imran Siddiqi, Gennaro Vessio(参考訳) パーキンソン病(PD)は、ブラジキネジア、無症候、剛性、震動などのいくつかの運動症状を特徴とする。 患者の運動制御、特に手書き動作の分析は、PDアセスメントを支援する強力なツールである。 長年にわたり,オンライン筆跡取得ツールの助けを借りて取得できるペン圧,ストローク速度,空気中時間などの様々な筆跡特性がpdの同定のために評価されてきた。 運動イベントとその関連する時空間特性はオンライン手書きで捉えられ、ユニークなシーケンシャルパターンの同定を通じてPD患者の効果的な分類を可能にする。 本稿では,パーキンソン病の診断における手書きの逐次情報の可能性を評価するために,一次元畳み込みと双方向ゲート再帰単位(bigrus)に基づく新しい分類モデルを提案する。 1次元の畳み込みは生の配列や派生した特徴に適用され、得られた配列は最終分類を達成するためにBiGRU層に供給される。 提案手法は,pahawデータセットの最先端手法を上回り,newhandpdデータセットの競合結果を得た。

Parkinson's disease (PD) is commonly characterized by several motor symptoms, such as bradykinesia, akinesia, rigidity, and tremor. The analysis of patients' fine motor control, particularly handwriting, is a powerful tool to support PD assessment. Over the years, various dynamic attributes of handwriting, such as pen pressure, stroke speed, in-air time, etc., which can be captured with the help of online handwriting acquisition tools, have been evaluated for the identification of PD. Motion events, and their associated spatio-temporal properties captured in online handwriting, enable effective classification of PD patients through the identification of unique sequential patterns. This paper proposes a novel classification model based on one-dimensional convolutions and Bidirectional Gated Recurrent Units (BiGRUs) to assess the potential of sequential information of handwriting in identifying Parkinsonian symptoms. One-dimensional convolutions are applied to raw sequences as well as derived features; the resulting sequences are then fed to BiGRU layers to achieve the final classification. The proposed method outperformed state-of-the-art approaches on the PaHaW dataset and achieved competitive results on the NewHandPD dataset.
翻訳日:2021-03-19 10:45:21 公開日:2021-01-23
# 限定学習のための拡張組込みによるコントラスト型プロトタイプ学習

Contrastive Prototype Learning with Augmented Embeddings for Few-Shot Learning ( http://arxiv.org/abs/2101.09499v1 )

ライセンス: Link先を確認
Yizhao Gao, Nanyi Fei, Guangzhen Liu, Zhiwu Lu, Tao Xiang, Songfang Huang(参考訳) 最近のいくつかのショットラーニング(FSL)手法は、エピソードトレーニングによるメタラーニングに基づいている。 各メタトレーニングエピソードにおいて、まず、内ループ内のサポートセットから識別的特徴埋め込みおよび/または分類器を構築し、その後、モデル更新のためのクエリセットを使用して外ループで評価する。 しかしながら、このクエリセットのサンプル中心学習目標は、本質的には、サポートセットにおけるトレーニングデータ問題に対処する上で制限されている。 本稿では,この限界を克服するために,拡張埋め込みモデル(cplae)を用いた新しいコントラストプロトタイプ学習を提案する。 まず、サポートセットとクエリセットの両方にデータ拡張が導入され、各サンプルは現在、オリジナルバージョンと拡張バージョンの両方の連結埋め込みからなる拡張埋め込み(ae)として表現される。 次に,コントラッシブ・プロトタイプ学習(CPL)において,コントラッシブ・ロスを中心とした新しいサポート・セット・クラス・プロトタイプを提案する。 クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。 このサポートセットのサンプル中心損失は、既存のクエリ中心損失と非常に相補的であり、各エピソードにおける限られたトレーニングデータを完全に活用する。 いくつかのベンチマークにおいて,提案したCPLAEが新たな最先端を実現することを示す。

Most recent few-shot learning (FSL) methods are based on meta-learning with episodic training. In each meta-training episode, a discriminative feature embedding and/or classifier are first constructed from a support set in an inner loop, and then evaluated in an outer loop using a query set for model updating. This query set sample centered learning objective is however intrinsically limited in addressing the lack of training data problem in the support set. In this paper, a novel contrastive prototype learning with augmented embeddings (CPLAE) model is proposed to overcome this limitation. First, data augmentations are introduced to both the support and query sets with each sample now being represented as an augmented embedding (AE) composed of concatenated embeddings of both the original and augmented versions. Second, a novel support set class prototype centered contrastive loss is proposed for contrastive prototype learning (CPL). With a class prototype as an anchor, CPL aims to pull the query samples of the same class closer and those of different classes further away. This support set sample centered loss is highly complementary to the existing query centered loss, fully exploiting the limited training data in each episode. Extensive experiments on several benchmarks demonstrate that our proposed CPLAE achieves new state-of-the-art.
翻訳日:2021-03-19 10:44:58 公開日:2021-01-23
# 医用画像分割のためのネットワーク非依存知識伝達

Network-Agnostic Knowledge Transfer for Medical Image Segmentation ( http://arxiv.org/abs/2101.09560v1 )

ライセンス: Link先を確認
Shuhang Wang, Vivek Kumar Singh, Alex Benjamin, Mercy Asiedu, Elham Yousef Kalafi, Eugene Cheah, Viksit Kumar, Anthony Samir(参考訳) 従来の転送学習は、事前訓練されたネットワークの重みを利用するが、類似したニューラルネットワークアーキテクチャの必要性を義務付けている。 あるいは、知識蒸留は異種ネットワーク間で知識を伝達することができるが、しばしば元のトレーニングデータや追加の生成ネットワークにアクセスする必要がある。 ネットワーク間の知識伝達は、ネットワークアーキテクチャの選択に依存せず、元のトレーニングデータへの依存を減らすことで改善することができる。 本研究では,教師から生徒ネットワークへの知識伝達手法を提案する。そこでは,教師がアノテーションを生成する独立したトランスファーデータセットで生徒を訓練する。 セマンティックセグメンテーションのための5つの最先端ネットワークと、3つの画像モダリティにわたる7つのデータセットで実験を行った。 一つの教師からの知識伝達,知識伝達と微調整の組み合わせ,および複数の教師からの知識伝達について検討した。 一人の教師を持つ生徒モデルは教師と同様のパフォーマンスを達成し、複数の教師を持つ生徒モデルは教師より優れたパフォーマンスを得た。 本アルゴリズムの有能な特徴は,1) 独自のトレーニングデータや生成ネットワークを必要としないこと,2) 異なるアーキテクチャ間の知識伝達,3) 下流タスクデータセットを転送データセットとして使用することで下流タスクの実装が容易であること,(4) 独立して訓練されたモデルの集合体を1つの学生モデルに伝達すること,である。 大規模な実験により,提案アルゴリズムは知識伝達に有効であり,容易に学習可能であることが示された。

Conventional transfer learning leverages weights of pre-trained networks, but mandates the need for similar neural architectures. Alternatively, knowledge distillation can transfer knowledge between heterogeneous networks but often requires access to the original training data or additional generative networks. Knowledge transfer between networks can be improved by being agnostic to the choice of network architecture and reducing the dependence on original training data. We propose a knowledge transfer approach from a teacher to a student network wherein we train the student on an independent transferal dataset, whose annotations are generated by the teacher. Experiments were conducted on five state-of-the-art networks for semantic segmentation and seven datasets across three imaging modalities. We studied knowledge transfer from a single teacher, combination of knowledge transfer and fine-tuning, and knowledge transfer from multiple teachers. The student model with a single teacher achieved similar performance as the teacher; and the student model with multiple teachers achieved better performance than the teachers. The salient features of our algorithm include: 1)no need for original training data or generative networks, 2) knowledge transfer between different architectures, 3) ease of implementation for downstream tasks by using the downstream task dataset as the transferal dataset, 4) knowledge transfer of an ensemble of models, trained independently, into one student model. Extensive experiments demonstrate that the proposed algorithm is effective for knowledge transfer and easily tunable.
翻訳日:2021-03-19 10:44:40 公開日:2021-01-23
# 復元データ忠実度を用いた学習劣化画像分類

Learning degraded image classification with restoration data fidelity ( http://arxiv.org/abs/2101.09606v1 )

ライセンス: Link先を確認
Xiaoyu Lin(参考訳) 特に畳み込みニューラルネットワーク(cnn)を用いた学習ベースの手法は、画像分類から復元まで、コンピュータビジョンアプリケーションにおいて優れた性能を示している。 画像分類では、caltech-256やimagenetデータセットのような非常にクリーンな画像に焦点を当てている。 しかし、最も現実的なシナリオでは、取得した画像が劣化する可能性がある。 画像分類と復元タスクを組み合わせることで、劣化画像上のCNNに基づく分類ネットワークの性能を向上させることが重要かつ興味深い問題である。 本報告では,4つの分類ネットワークにおける劣化タイプとレベルの影響と,劣化の影響を解消するための復元ネットワークの利用について検討する。 また,事前学習した分類ネットワークで得られた画像の特徴を精度マップを用いて校正する手法を提案する。 提案手法は, 付加的な白色ガウス雑音(AWGN)を伴い, 劣化レベルが低く, 劣化レベルが低い場合には, 劣化した画像に対する再学習ネットワークよりも優れた性能を示す。 また,提案手法は分類網の異なるモデルに依存しない手法であることを示す。 その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。

Learning-based methods especially with convolutional neural networks (CNN) are continuously showing superior performance in computer vision applications, ranging from image classification to restoration. For image classification, most existing works focus on very clean images such as images in Caltech-256 and ImageNet datasets. However, in most realistic scenarios, the acquired images may suffer from degradation. One important and interesting problem is to combine image classification and restoration tasks to improve the performance of CNN-based classification networks on degraded images. In this report, we explore the influence of degradation types and levels on four widely-used classification networks, and the use of a restoration network to eliminate the degradation's influence. We also propose a novel method leveraging a fidelity map to calibrate the image features obtained by pre-trained classification networks. We empirically demonstrate that our proposed method consistently outperforms the pre-trained networks under all degradation levels and types with additive white Gaussian noise (AWGN), and it even outperforms the re-trained networks for degraded images under low degradation levels. We also show that the proposed method is a model-agnostic approach that benefits different classification networks. Our results reveal that the proposed method is a promising solution to mitigate the effect caused by image degradation.
翻訳日:2021-03-19 10:43:51 公開日:2021-01-23
# サンプル効率のよい政策学習のための探索再考

Rethinking Exploration for Sample-Efficient Policy Learning ( http://arxiv.org/abs/2101.09458v1 )

ライセンス: Link先を確認
William F. Whitney, Michael Bloesch, Jost Tobias Springenberg, Abbas Abdolmaleki, Martin Riedmiller(参考訳) 制御のためのオフポリシー強化学習は、パフォーマンスとサンプル効率の面で大きな進歩を遂げた。 多くのタスクにおいて、現代の手法のサンプル効率は、ポリシー適合の困難さよりも、収集したデータの豊かさによって制限されていると提案する。 ボーナスベース探索 (BBE) ファミリーにおける探索手法が, サンプル効率のよい制御問題にあまり影響を与えていない理由について検討した。 3つの問題はBBEの適用性を制限している: 有限サンプルのバイアス、崩壊するボーナスへの緩やかな適応、そして目に見えない遷移に対する楽観性の欠如である。 本稿では,これらの制限に対処するため,ボーナスベースの探索レシピの変更を提案する。 UFOと呼ばれる結果のアルゴリズムは、有限サンプルに偏りのないポリシーを生成し、探索ボーナスの変化として高速適応し、新しい遷移に関して最適化する。 高速指向探査が制御のサンプル効率を向上させるための有望な方向であることを示す実験を含む。

Off-policy reinforcement learning for control has made great strides in terms of performance and sample efficiency. We suggest that for many tasks the sample efficiency of modern methods is now limited by the richness of the data collected rather than the difficulty of policy fitting. We examine the reasons that directed exploration methods in the bonus-based exploration (BBE) family have not been more influential in the sample efficient control problem. Three issues have limited the applicability of BBE: bias with finite samples, slow adaptation to decaying bonuses, and lack of optimism on unseen transitions. We propose modifications to the bonus-based exploration recipe to address each of these limitations. The resulting algorithm, which we call UFO, produces policies that are Unbiased with finite samples, Fast-adapting as the exploration bonus changes, and Optimistic with respect to new transitions. We include experiments showing that rapid directed exploration is a promising direction to improve sample efficiency for control.
翻訳日:2021-03-19 10:43:05 公開日:2021-01-23
# 季節統合型オートエンコーダによる短期降水予測

Short-term daily precipitation forecasting with seasonally-integrate d autoencoder ( http://arxiv.org/abs/2101.09509v1 )

ライセンス: Link先を確認
Donlapark Ponnoprat(参考訳) 短期間の降水予測は、個人の計画から都市管理、洪水予防まで、様々な規模の人間の活動計画に不可欠である。 しかし、短期的な大気力学は非常に非線形であり、古典的な時系列モデルでは容易に捉えられない。 一方で、ディープラーニングモデルは非線形相互作用の学習に長けているが、時系列の季節性を扱うように設計されていない。 本研究では,毎日の降水データに隠された非線形性を処理し,季節性を検出する予測モデルを開発することを目的としている。 そこで本研究では,2つのlong short-term memory (lstm)オートエンコーダからなる,季節的統合型オートエンコーダ (ssae) を提案する。 実験結果から,SSAEは気候によらず様々な時系列モデルに優れるだけでなく,他の深層学習モデルと比較して出力のばらつきも低いことがわかった。 また,ssaeの季節成分は,地平線1の4%から地平線3の37%までの予測値と実際の値との相関性の向上に寄与した。

Short-term precipitation forecasting is essential for planning of human activities in multiple scales, ranging from individuals' planning, urban management to flood prevention. Yet the short-term atmospheric dynamics are highly nonlinear that it cannot be easily captured with classical time series models. On the other hand, deep learning models are good at learning nonlinear interactions, but they are not designed to deal with the seasonality in time series. In this study, we aim to develop a forecasting model that can both handle the nonlinearities and detect the seasonality hidden within the daily precipitation data. To this end, we propose a seasonally-integrate d autoencoder (SSAE) consisting of two long short-term memory (LSTM) autoencoders: one for learning short-term dynamics, and the other for learning the seasonality in the time series. Our experimental results show that not only does the SSAE outperform various time series models regardless of the climate type, but it also has low output variance compared to other deep learning models. The results also show that the seasonal component of the SSAE helped improve the correlation between the forecast and the actual values from 4% at horizon 1 to 37% at horizon 3.
翻訳日:2021-03-19 10:42:51 公開日:2021-01-23
# 項拡散による回帰確率の予測:機械学習アプローチによる新しい証拠

Predicting Recession Probabilities Using Term Spreads: New Evidence from a Machine Learning Approach ( http://arxiv.org/abs/2101.09394v1 )

ライセンス: Link先を確認
Jaehyuk Choi, Desheng Ge, Kyu Ho Kang, Sungbin Sohn(参考訳) 利回り曲線を使って不況を予測する文献は、10年利と3カ月利回りの差として一般的にこの用語が広まるのを計測する。 さらに、スプレッドという用語を用いることで、長期と短期の金利はリセッション確率に同じ絶対的な影響を及ぼすことになる。 本研究では、利子率の予測能力が向上できるかどうかを調べるために、機械学習手法を採用する。 機械学習アルゴリズムは最適な成熟度ペアを特定し、利子率の効果を拡散した用語と区別する。 包括的実証実験の結果,予測誤差により,機械学習アプローチでは予測精度が著しく向上しないことがわかった。 従来から10年3カ月の国債利回り拡大を支えている。 これは、予測水平線、制御変数、サンプル周期、不況観測のオーバーサンプリングに対して堅牢である。

The literature on using yield curves to forecast recessions typically measures the term spread as the difference between the 10-year and the three-month Treasury rates. Furthermore, using the term spread constrains the long- and short-term interest rates to have the same absolute effect on the recession probability. In this study, we adopt a machine learning method to investigate whether the predictive ability of interest rates can be improved. The machine learning algorithm identifies the best maturity pair, separating the effects of interest rates from those of the term spread. Our comprehensive empirical exercise shows that, despite the likelihood gain, the machine learning approach does not significantly improve the predictive accuracy, owing to the estimation error. Our finding supports the conventional use of the 10-year--three-month Treasury yield spread. This is robust to the forecasting horizon, control variable, sample period, and oversampling of the recession observations.
翻訳日:2021-03-19 10:42:30 公開日:2021-01-23
# ノイズサンプルの除去とハード画像の活用による細粒度画像認識へのweb画像の活用

Exploiting Web Images for Fine-Grained Visual Recognition by Eliminating Noisy Samples and Utilizing Hard Ones ( http://arxiv.org/abs/2101.09412v1 )

ライセンス: Link先を確認
Huafeng Liu, Chuanyi Zhang, Yazhou Yao, Xiushen Wei, Fumin Shen, Jian Zhang, and Zhenmin Tang(参考訳) 下位レベルにおけるオブジェクトのラベル付けは通常、専門家の知識を必要とする。 これにより,Web画像から直接の微粒化認識の学習が注目されている。 しかしながら,web画像におけるラベルノイズとハードサンプルの存在は,ロバストな細粒度認識モデルのトレーニングにおける2つの障害である。 そこで本稿では,実世界のweb画像から無関係なサンプルをトレーニング中に削除する手法を提案する。 したがって,提案手法は,無関係な web 画像やハードサンプルの有害な効果を軽減し,良好な性能を実現することができる。 3つの一般的なきめ細かなデータセットに関する広範囲な実験は、我々のアプローチが現在の最先端のweb教師付きメソッドよりはるかに優れていることを示している。

Labeling objects at a subordinate level typically requires expert knowledge, which is not always available when using random annotators. As such, learning directly from web images for fine-grained recognition has attracted broad attention. However, the presence of label noise and hard examples in web images are two obstacles for training robust fine-grained recognition models. Therefore, in this paper, we propose a novel approach for removing irrelevant samples from real-world web images during training, while employing useful hard examples to update the network. Thus, our approach can alleviate the harmful effects of irrelevant noisy web images and hard examples to achieve better performance. Extensive experiments on three commonly used fine-grained datasets demonstrate that our approach is far superior to current state-of-the-art web-supervised methods.
翻訳日:2021-03-19 10:42:16 公開日:2021-01-23
# スライススペクトルを用いた全焦点スタックの深部アンチエイリアシング

Deep Anti-aliasing of Whole Focal Stack Using its Slice Spectrum ( http://arxiv.org/abs/2101.09420v1 )

ライセンス: Link先を確認
Yaning Li, Xue Wang, Guoqing Zhou, and Qing Wang(参考訳) 本稿では,全焦点層間の一貫性を維持しつつ,スパース3次元光界から発生する焦点スタック全体のエイリアシング効果を除去し,まず焦点スタックスライスに埋め込まれた構造特性と対応する周波数領域表現,すなわち焦点スタックスペクトル(fss)について検討する。 また, FSS のエネルギー分布は, 異なる角度のサンプリング速度で常に同じ三角形領域内にあり, さらに, 点拡散関数 (PSF) の連続性は FSS に内在的に維持されている。 これらの2つの知見に基づいて,焦点スタック全体の除去を1回のエイリアス化するための学習ベースのFSS再構成手法を提案する。 さらに,新しい共役対称損失関数を最適化のために提案する。 従来の手法と比較すると,提案手法は明確な奥行き推定を回避し,大きな異質なシナリオに対処できる。 合成光場と実光場の両方における実験結果から,異なるシーンに対する提案手法の優位性と,様々な角度のサンプリングレートが示された。

The paper aims at removing the aliasing effects for the whole focal stack generated from a sparse 3D light field, while keeping the consistency across all the focal layers.We first explore the structural characteristics embedded in the focal stack slice and its corresponding frequency-domain representation, i.e., the focal stack spectrum (FSS). We also observe that the energy distribution of FSS always locates within the same triangular area under different angular sampling rates, additionally the continuity of point spread function (PSF) is intrinsically maintained in the FSS. Based on these two findings, we propose a learning-based FSS reconstruction approach for one-time aliasing removing over the whole focal stack. What's more, a novel conjugate-symmetric loss function is proposed for the optimization. Compared to previous works, our method avoids an explicit depth estimation, and can handle challenging large-disparity scenarios. Experimental results on both synthetic and real light field datasets show the superiority of the proposed approach for different scenes and various angular sampling rates.
翻訳日:2021-03-19 10:42:02 公開日:2021-01-23
# トレーサビリティの概要:コンピューティングシステムにおける説明責任の運用原理

Outlining Traceability: A Principle for Operationalizing Accountability in Computing Systems ( http://arxiv.org/abs/2101.09385v1 )

ライセンス: Link先を確認
Joshua A. Kroll(参考訳) 説明責任はよく管理されたコンピュータシステムの目標として広く理解されており、多くのガバナンスの文脈において追求すべき価値である。 しかし、どうやって達成できるのか? 統治可能な人工知能システムの標準に関する最近の研究は、関連する原則であるトレーサビリティを提供する。 トレーサビリティは、システムの動作方法だけでなく、その生成方法や目的のために、システムが特別なダイナミクスや振る舞いを持つ理由を説明する方法を確立する必要がある。 システムがどのように構築され、システムが機械的に何をしたかの記録を、その機械的操作とそれを支える決定プロセスに対する人間の理解を強調する方法で、より広範なガバナンスの目標に結びつける。 トレーサビリティの原則が世界中のai原則やその他の政策文書で説明され、原則によって駆動されるソフトウェアシステムに関する一連の要件を抽出し、これらの要件を満たすために利用可能なテクノロジを体系化する様々な方法について検討する。 要件のマップからツール、テクニック、手順のサポートまで、トレーサビリティが必要とするものを実践者に提供するツールボックスから分離する必要があります。 このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイし、システムとその開発プロセスの規範的忠実性を改善する方法を示します。

Accountability is widely understood as a goal for well governed computer systems, and is a sought-after value in many governance contexts. But how can it be achieved? Recent work on standards for governable artificial intelligence systems offers a related principle: traceability. Traceability requires establishing not only how a system worked but how it was created and for what purpose, in a way that explains why a system has particular dynamics or behaviors. It connects records of how the system was constructed and what the system did mechanically to the broader goals of governance, in a way that highlights human understanding of that mechanical operation and the decision processes underlying it. We examine the various ways in which the principle of traceability has been articulated in AI principles and other policy documents from around the world, distill from these a set of requirements on software systems driven by the principle, and systematize the technologies available to meet those requirements. From our map of requirements to supporting tools, techniques, and procedures, we identify gaps and needs separating what traceability requires from the toolbox available for practitioners. This map reframes existing discussions around accountability and transparency, using the principle of traceability to show how, when, and why transparency can be deployed to serve accountability goals and thereby improve the normative fidelity of systems and their development processes.
翻訳日:2021-03-19 10:41:28 公開日:2021-01-23
# 重み正規化によるスパース符号化変分オートエンコーダの訓練改善

Improved Training of Sparse Coding Variational Autoencoder via Weight Normalization ( http://arxiv.org/abs/2101.09453v1 )

ライセンス: Link先を確認
Linxing Preston Jiang, Luciano de la Iglesia(参考訳) まばらで構成的な特徴を持つ視覚情報の生成モデルを学ぶことは、理論神経科学と機械学習のコミュニティの両方にとって課題である。 スパースコーディングモデルは、スパースに活性化された潜在性表現を持つ哺乳類一次視覚野の受容野を説明することに成功している。 本稿では,最近提案されているsparse coding variational autoencoder (svae) (barello et al., 2018) に着目し,sveeのエンドツーエンドのトレーニング方式が,ノイズライクな受容領域に完全に最適化されていないデコードフィルタ群に繋がることを示す。 SVAEのトレーニングを改善するためのいくつかのヒューリスティックスを提案し、デコーダ上のユニット$L_2$ノルム制約がスパース符号化フィルタの作成に重要であることを示す。 このような正規化は、大脳皮質の局所的な側方抑制と見なすことができる。 我々は、この主張を自然画像パッチとMNISTデータセットの両方で実証的に検証し、ユニットノルムへのフィルタの投影がアクティブフィルタの数を大幅に増加させることを示す。 本研究では,データから疎表現を学習する上での重み正規化の重要性を強調し,VAE学習における不活性潜伏成分の削減方法を提案する。

Learning a generative model of visual information with sparse and compositional features has been a challenge for both theoretical neuroscience and machine learning communities. Sparse coding models have achieved great success in explaining the receptive fields of mammalian primary visual cortex with sparsely activated latent representation. In this paper, we focus on a recently proposed model, sparse coding variational autoencoder (SVAE) (Barello et al., 2018), and show that the end-to-end training scheme of SVAE leads to a large group of decoding filters not fully optimized with noise-like receptive fields. We propose a few heuristics to improve the training of SVAE and show that a unit $L_2$ norm constraint on the decoder is critical to produce sparse coding filters. Such normalization can be considered as local lateral inhibition in the cortex. We verify this claim empirically on both natural image patches and MNIST dataset and show that projection of the filters onto unit norm drastically increases the number of active filters. Our results highlight the importance of weight normalization for learning sparse representation from data and suggest a new way of reducing the number of inactive latent components in VAE learning.
翻訳日:2021-03-19 10:41:01 公開日:2021-01-23
# MinConvNets: 乗算なしニューラルネットワークの新しいクラス

MinConvNets: A new class of multiplication-less Neural Networks ( http://arxiv.org/abs/2101.09492v1 )

ライセンス: Link先を確認
Xuecan Yang, Sumanta Chaudhuri, Laurence Likforman, Lirida Naviner(参考訳) 畳み込みニューラルネットワークは、画像分類、認識、検出アプリケーションで前例のない成功を収めている。 しかし、組み込みデバイスへの大規模な展開は、いまだに巨大な計算要求、すなわち層当たり数百万のMAC操作によって制限されている。 本稿では、フォワード伝搬における乗算を最小コンパレータ演算によって近似するminconvnetについて述べる。 最小演算のハードウェア実装は乗算器よりもはるかに単純である。 まず,統計的相関に基づく近似演算を求める手法を提案する。 我々は、ある制約の下での前方伝播において、乗算器を最小演算で置き換えることができることを示す。 特徴と重みベクトルの 類似した平均と分散が与えられます 上記の制約を保証した修正トレーニング手法を提案する。 また、よく訓練された正確なCNNからの伝達学習を用いて、MinConvNetsの推論中に等価な精度が得られることを示す。

Convolutional Neural Networks have achieved unprecedented success in image classification, recognition, or detection applications. However, their large-scale deployment in embedded devices is still limited by the huge computational requirements, i.e., millions of MAC operations per layer. In this article, MinConvNets where the multiplications in the forward propagation are approximated by minimum comparator operations are introduced. Hardware implementation of minimum operation is much simpler than multipliers. Firstly, a methodology to find approximate operations based on statistical correlation is presented. We show that it is possible to replace multipliers by minimum operations in the forward propagation under certain constraints, i.e. given similar mean and variances of the feature and the weight vectors. A modified training method which guarantees the above constraints is proposed. And it is shown that equivalent precision can be achieved during inference with MinConvNets by using transfer learning from well trained exact CNNs.
翻訳日:2021-03-19 10:40:37 公開日:2021-01-23
# 人間の意図推論のための不連続配列クラスタリング

Disentangled Sequence Clustering for Human Intention Inference ( http://arxiv.org/abs/2101.09500v1 )

ライセンス: Link先を確認
Mark Zolotas, Yiannis Demiris(参考訳) ロボットに人間の意図を推測する能力を備えることは、効果的なコラボレーションにとって重要な前提条件である。 この目的へのほとんどの計算的アプローチは、ロボットの知覚状態に基づく「意図的」な条件の分布を回復するために確率論的推論を用いる。 しかしながら、これらのアプローチは通常、人間の意図(例えば、タスク固有の概念)を仮定する。 ラベル付きゴール)は先験として知られている。 この制約を克服するために,このような意図の分布を教師なしで学習できるクラスタリングフレームワークであるdisentangled sequence clustering variational autoencoder (discvae)を提案する。 DiSCVAEは、教師なし学習の最近の進歩を活用して、時系列データの非絡み合った潜在表現を導き、時間変化の局所的な特徴を時間不変のグローバルな側面から分離する。 従来のアンタングルメントのフレームワークとは異なり、提案された変種は離散変数を推論して潜在混合モデルを形成し、グローバルシーケンスの概念のクラスタリングを可能にする。 観察された人間の行動からの意図。 そこで本研究では,まず2dアニメーションを用いたビデオデータセットを用いて,ラベルなしシーケンスからクラスを探索する能力を検証する。 次に,ロボット車椅子を用いた実世界ロボットインタラクション実験の結果を報告する。 本研究は,推定された離散変数が人間の意図とどのように一致するかに関する知見を収集し,共有制御などの協調的な設定における支援の改善に寄与することを示す。

Equipping robots with the ability to infer human intent is a vital precondition for effective collaboration. Most computational approaches towards this objective employ probabilistic reasoning to recover a distribution of "intent" conditioned on the robot's perceived sensory state. However, these approaches typically assume task-specific notions of human intent (e.g. labelled goals) are known a priori. To overcome this constraint, we propose the Disentangled Sequence Clustering Variational Autoencoder (DiSCVAE), a clustering framework that can be used to learn such a distribution of intent in an unsupervised manner. The DiSCVAE leverages recent advances in unsupervised learning to derive a disentangled latent representation of sequential data, separating time-varying local features from time-invariant global aspects. Though unlike previous frameworks for disentanglement, the proposed variant also infers a discrete variable to form a latent mixture model and enable clustering of global sequence concepts, e.g. intentions from observed human behaviour. To evaluate the DiSCVAE, we first validate its capacity to discover classes from unlabelled sequences using video datasets of bouncing digits and 2D animations. We then report results from a real-world human-robot interaction experiment conducted on a robotic wheelchair. Our findings glean insights into how the inferred discrete variable coincides with human intent and thus serves to improve assistance in collaborative settings, such as shared control.
翻訳日:2021-03-19 10:40:23 公開日:2021-01-23
# Doppelganger グラフの生成 - 組み立ては可能だが決定性

Generating a Doppelganger Graph: Resembling but Distinct ( http://arxiv.org/abs/2101.09593v1 )

ライセンス: Link先を確認
Yuliang Ji, Ru Huang, Jie Chen, Yuanzhe Xi(参考訳) 深層生成モデルは、その開始以来、新しく知覚的に現実的な信号(画像や音波など)を生成する能力がますます高まっている。 グラフ構造化データの深いモデルが出現すると、自然の興味はグラフのこれらの生成モデルの拡張を求める。 成功した拡張は、最近、グラフの集合(例えば、タンパク質データバンク)から学習する場合に見られたが、単一のグラフからの学習はほとんど調査されていない。 しかし、後者のケースは実際には重要である。 例えば、金融や医療システムのグラフには、公開アクセシビリティーがほぼ不可能なほど多くの機密情報が含まれているが、これらの分野のオープンサイエンスは、類似したデータがベンチマークに利用可能である場合にのみ前進することができる。 本研究では,多くのグラフ特性において与えられたグラフに類似するドッペルガンガーグラフを生成するアプローチを提案するが,しかしながら,ほぼゼロのエッジ重なりという意味で,元のグラフをリバースエンジニアリングするためにはほとんど利用できない。 このアプローチは、グラフ表現学習、生成的敵ネットワーク、およびグラフ実現アルゴリズムのオーケストレーションである。 複数のグラフ生成モデル(ニューラルネットワークによってパラメータ化されるかどうかに関わらず)との比較により、この結果が与えられたグラフをほとんど再現しないが、その性質に密接に一致することを証明した。 さらに,生成されたグラフ上のノード分類などのダウンストリームタスクが,元のグラフと同等の性能に達することを示す。

Deep generative models, since their inception, have become increasingly more capable of generating novel and perceptually realistic signals (e.g., images and sound waves). With the emergence of deep models for graph structured data, natural interests seek extensions of these generative models for graphs. Successful extensions were seen recently in the case of learning from a collection of graphs (e.g., protein data banks), but the learning from a single graph has been largely under explored. The latter case, however, is important in practice. For example, graphs in financial and healthcare systems contain so much confidential information that their public accessibility is nearly impossible, but open science in these fields can only advance when similar data are available for benchmarking. In this work, we propose an approach to generating a doppelganger graph that resembles a given one in many graph properties but nonetheless can hardly be used to reverse engineer the original one, in the sense of a near zero edge overlap. The approach is an orchestration of graph representation learning, generative adversarial networks, and graph realization algorithms. Through comparison with several graph generative models (either parameterized by neural networks or not), we demonstrate that our result barely reproduces the given graph but closely matches its properties. We further show that downstream tasks, such as node classification, on the generated graphs reach similar performance to the use of the original ones.
翻訳日:2021-03-19 10:39:58 公開日:2021-01-23
# 離散ファイバーネットワークデータを用いたニューラルネットワークによるフィブリンの力学特性予測

Predicting the Mechanical Properties of Fibrin Using Neural Networks Trained on Discrete Fiber Network Data ( http://arxiv.org/abs/2101.11712v1 )

ライセンス: Link先を確認
Yue Leng, Sarah Calve, Adrian Buganza Tepole(参考訳) フィブリンは創傷治癒や血栓形成などのプロセスのための構造タンパク質キーである。 マクロスケールでは、フィブリンはゲルを形成し、マイクロスケールファイバーネットワークのメカニズムによって引き起こされる機械的応答を持つ。 したがって、マイクロスケールの離散ファイバーネットワークを明示的にモデル化する代表体積要素(RVE)を用いて、フィブリンゲルの正確な記述を行うことができる。 しかし、これらのRVEモデルは、マルチスケール結合の課題や計算要求のために、マクロスケールを効率的にモデル化することはできない。 本稿では,完全結合型人工ニューラルネットワーク(fcnn)を用いて,rveモデルの挙動を効率的に把握する手法を提案する。 fcnnは121の2軸変形を受ける1100のファイバーネットワークで訓練された。 RVEからの応力データは, 繊維の総エネルギーと周囲マトリックスの非圧縮性の条件とともに, 変形不変量に関して未知のひずみエネルギー関数の導関数を決定するために利用した。 訓練中、損失関数はひずみエネルギー関数の凸性とヘッセンの対称性を保証するために修正された。 一般的なFCNNモデルは、ソフトウェアAbaqusのユーザマテリアルサブルーチン(UMAT)にコード化された。 UMATの実装は、任意のFCNNの構造とパラメータを入力ファイルから材料パラメータとして取り込む。 FCNNへの入力は、変形の最初の2つの等方的不変量を含む。 fcnnはイソコリック不変量に関してひずみエネルギーの導関数を出力する。 本研究では, 離散ファイバネットワークデータを用いたfcnnを用いて, umatを用いたフィブリンゲルの有限要素シミュレーションを行った。 この研究により、機械学習ツールと計算力学のさらなる統合が期待できる。 マルチスケール構造を特徴とする生体材料の計算モデリングも改善する。

Fibrin is a structural protein key for processes such as wound healing and thrombus formation. At the macroscale, fibrin forms a gel and has a mechanical response that is dictated by the mechanics of a microscale fiber network. Hence, accurate description of fibrin gels can be achieved using representative volume elements (RVE) that explicitly model the discrete fiber networks of the microscale. These RVE models, however, cannot be efficiently used to model the macroscale due to the challenges and computational demands of multiscale coupling. Here, we propose the use of an artificial, fully connected neural network (FCNN) to efficiently capture the behavior of the RVE models. The FCNN was trained on 1100 fiber networks subjected to 121 biaxial deformations. The stress data from the RVE, together with the total energy on the fibers and the condition of incompressibility of the surrounding matrix, were used to determine the derivatives of an unknown strain energy function with respect to the deformation invariants. During training, the loss function was modified to ensure convexity of the strain energy function and symmetry of its Hessian. A general FCNN model was coded into a user material subroutine (UMAT) in the software Abaqus. The UMAT implementation takes in the structure and parameters of an arbitrary FCNN as material parameters from the input file. The inputs to the FCNN include the first two isochoric invariants of the deformation. The FCNN outputs the derivatives of the strain energy with respect to the isochoric invariants. In this work, the FCNN trained on the discrete fiber network data was used in finite element simulations of fibrin gels using our UMAT. We anticipate that this work will enable further integration of machine learning tools with computational mechanics. It will also improve computational modeling of biological materials characterized by a multiscale structure.
翻訳日:2021-03-19 10:39:00 公開日:2021-01-23