このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20210123となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# マイクロ波直接合成による超伝導量子ビットの高密度制御 High-Fidelity Control of Superconducting Qubits Using Direct Microwave Synthesis in Higher Nyquist Zones ( http://arxiv.org/abs/2008.02873v2 ) ライセンス: Link先を確認 | William D. Kalfus, Diana F. Lee, Guilhem J. Ribeill, Spencer D. Fallek, Andrew Wagner, Brian Donovan, Diego Rist\`e, Thomas A. Ohki | (参考訳) 超伝導量子プロセッサの制御エレクトロニクスは、その量子ビットの感度量子状態の正確な制御に厳格な要求がある。
超安定振動子による超低雑音ベースバンドパルスのアップコンバート化により、従来の制御系は大規模量子デバイスへのスケーリングにおいて、特に微細なパルス整形には高サンプリングレートが望ましいため、極めて複雑で高価なものとなる。
RFDAC (RF-GHz Radio- frequency digital-to-analog converters) は、高忠実度制御のためのより経済的手段を提供すると同時に、合成信号のスペクトルに対してより強い指令を与える。
広い帯域幅を持つ現代のRFDACは、サンプリングレートを超えるトーンを直接合成することができ、それによって、任意のプロファイルを持つ高周波パルスを発生しながら、現代のデジタル論理システムと互換性のあるレベルに維持することができる。
我々は, 5GHzのRFDACを用いて, 低ノイズパルス合成が可能なオフザシェルフハードウェアに, 独自の超伝導量子ビット制御ロジックを組み込んだ。
本手法は,広帯域での高線形で安定なマイクロ波合成を可能にし,高分解能制御と1キュービットあたりに必要な信号源数の削減を実現する。
5つのトランザム超電導デバイスを用いてハードウェアの性能を特徴付け、従来の構成よりも優れた制御チェーン線形性を示す2量子ビットゲート誤差(最大1.8%)を一貫して低減することを示す。
例外的な柔軟性と安定性は、中間スケールデバイスを超えたスケーラブルな量子制御の基礎をさらに確立させる。 Control electronics for superconducting quantum processors have strict requirements for accurate command of the sensitive quantum states of their qubits. Hinging on the purity of ultra-phase-stable oscillators to upconvert very-low-noise baseband pulses, conventional control systems can become prohibitively complex and expensive when scaling to larger quantum devices, especially as high sampling rates become desirable for fine-grained pulse shaping. Few-GHz radio-frequency digital-to-analog converters (RF DACs) present a more economical avenue for high-fidelity control while simultaneously providing greater command over the spectrum of the synthesized signal. Modern RF DACs with extra-wide bandwidths are able to directly synthesize tones above their sampling rates, thereby keeping the system clock rate at a level compatible with modern digital logic systems while still being able to generate high-frequency pulses with arbitrary profiles. We have incorporated custom superconducting qubit control logic into off-the-shelf hardware capable of low-noise pulse synthesis up to 7.5 GHz using an RF DAC clocked at 5 GHz. Our approach enables highly linear and stable microwave synthesis over a wide bandwidth, giving rise to high-resolution control and a reduced number of required signal sources per qubit. We characterize the performance of the hardware using a five-transmon superconducting device and demonstrate consistently reduced two-qubit gate error (as low as 1.8%) which we show results from superior control chain linearity compared to traditional configurations. The exceptional flexibility and stability further establish a foundation for scalable quantum control beyond intermediate-scale devices. | 翻訳日:2023-05-06 23:50:14 公開日:2021-01-23 |
# ボーム量子力学におけるカオス:短いレビュー Chaos in Bohmian Quantum Mechanics: A short review ( http://arxiv.org/abs/2009.05867v2 ) ライセンス: Link先を確認 | George Contopoulos and Athanasios C. Tzemos | (参考訳) これは、この分野での一連の研究を基にしたボヘミア量子力学におけるカオスの理論の短いレビューである。
最初の結果は、任意のボヘミア系(2次元と3次元)におけるカオスの生成に責任を持つ一般的な理論メカニズムの開発である。
このメカニズムにより、ボヘミアの軌道に対するカオスの影響を探索し、(解析的にも数値的にも)様々な種類のボヘミアの軌道について詳細に研究することができる。
最後に,量子エンタングルメントがボーム軌道の進化に及ぼす影響を探求し,理論的および実用的関心の大きい量子ビット系におけるカオスとエルゴディク性を研究する。
カオス的軌道もまたエルゴード的であること、すなわち、初期条件にかかわらず、長い時間をかけて、それらの点の最終的な分布が同じであることが分かる。
強い絡み合いの場合、ほとんどの軌道はカオス的でエルゴード的であり、粒子の初期分布は時間の経過とともにボルンの規則に従う傾向にある。
一方、弱い絡み合いの場合、ボルンの規則の分布は順序付けられた軌道によって支配され、従って、粒子の任意の初期構成は、当初満たされない限り、一般にボルンの規則に傾向しない。
我々の結果はボヘミア力学の基本的な問題、すなわちボヘミア粒子の初期分布によるボルンの規則の動的近似が存在するかどうかに光を当てた。 This is a short review in the theory of chaos in Bohmian Quantum Mechanics based on our series of works in this field. Our first result is the development of a generic theoretical mechanism responsible for the generation of chaos in an arbitrary Bohmian system (in 2 and 3 dimensions). This mechanism allows us to explore the effect of chaos on Bohmian trajectories and study in detail (both analytically and numerically) the different kinds of Bohmian trajectories where, in general, chaos and order coexist. Finally we explore the effect of quantum entanglement on the evolution of the Bohmian trajectories and study chaos and ergodicity in qubit systems which are of great theoretical and practical interest. We find that the chaotic trajectories are also ergodic, i.e. they give the same final distribution of their points after a long time regardless of their initial conditions. In the case of strong entanglement most trajectories are chaotic and ergodic and an arbitrary initial distribution of particles will tends to Born's rule over the course of time. On the other hand, in the case of weak entanglement the distribution of Born's rule is dominated by ordered trajectories and consequently an arbitrary initial configuration of particles will not tend, in general, to Born's rule, unless it is initially satisfied. Our results shed light on a fundamental problem in Bohmian Mechanics, namely whether there is a dynamical approximation of Born's rule by an arbitrary initial distribution of Bohmian particles. | 翻訳日:2023-05-02 10:42:33 公開日:2021-01-23 |
# 家庭から学ぶ: 新型コロナウイルスパンデミック中の中国大学におけるライブストリーミングによる遠隔教育体験の混合分析 Learning from Home: A Mixed-Methods Analysis of Live Streaming Based Remote Education Experience in Chinese Colleges During the COVID-19 Pandemic ( http://arxiv.org/abs/2010.01662v2 ) ライセンス: Link先を確認 | Zhilong Chen, Hancheng Cao, Yuting Deng, Xuan Gao, Jinghua Piao, Fengli Xu, Yu Zhang, Yong Li | (参考訳) 新型コロナウイルス(COVID-19)の世界的なパンデミックとロックダウン(ロックダウン)政策により、ほぼすべての国の教育は、伝統的なコロケーションのパラダイムから純粋なオンラインの"家庭からの距離学習"パラダイムに切り替えざるを得なくなった。
この学習パラダイムシフトの中心にあるのは、遠隔コミュニケーションツールや教育用ライブストリーミングプラットフォームが出現し、広く採用されていることです。
ここでは、新型コロナウイルスのパンデミックにおけるライブストリーミングベースの教育経験に関する混合手法について述べる。
分析は,中国の高等教育に焦点をあて,30人の学生と7人の教員を対象に半構造化面接を行い,一方,中国一流大学において6291人の学生と1160人のインストラクターを対象に大規模調査を行った。
本研究は、パンデミック時の現在の遠隔学習体験をより良く支援するための重要な設計ガイドラインと洞察を明らかにするだけでなく、パンデミック後の将来の共同教育支援システムの構築と経験に有用な意味を与える。 The COVID-19 global pandemic and resulted lockdown policies have forced education in nearly every country to switch from a traditional co-located paradigm to a pure online 'distance learning from home' paradigm. Lying in the center of this learning paradigm shift is the emergence and wide adoption of distance communication tools and live streaming platforms for education. Here, we present a mixed-methods study on live streaming based education experience during the COVID-19 pandemic. We focus our analysis on Chinese higher education, carried out semi-structured interviews on 30 students, and 7 instructors from diverse colleges and disciplines, meanwhile launched a large-scale survey covering 6291 students and 1160 instructors in one leading Chinese university. Our study not only reveals important design guidelines and insights to better support current remote learning experience during the pandemic, but also provides valuable implications towards constructing future collaborative education supporting systems and experience after pandemic. | 翻訳日:2023-04-30 00:29:43 公開日:2021-01-23 |
# みんながインスタント・メッセージベースのソーシャル・コマースに参加する方法と理由 You Recommend, I Buy: How and Why People Engage in Instant Messaging Based Social Commerce ( http://arxiv.org/abs/2011.00191v2 ) ライセンス: Link先を確認 | Hancheng Cao, Zhilong Chen, Mengjie Cheng, Shuling Zhao, Tao Wang, Yong Li | (参考訳) 特に中国では、インスタントメッセージング(IM)ベースのソーシャルコマースが急速に普及し、数億人のユーザーを惹きつけ、人々が日々の買い物をする重要な方法になりつつある。
そのようなプラットフォームは、たとえばwechat、whatsappなど、imアプリの中にショッピング体験を埋め込んでいる。
なぜユーザーはIMベースのソーシャルコマースに関わっているのか?
このようなプラットフォームは、事前の商業とは別の新しい体験を生み出すだろうか?
そして、これらのプラットフォームはユーザーの社会的生活と関係に変化をもたらすだろうか?
そこで我々は、中国で12のインスタントメッセージングベースのソーシャルコマースユーザーを対象に、半構造化されたインタビューを行った。
私たちはimベースのソーシャルコマースを 示しました
1) リーチ性,コスト低減性,没入型ユーザショッピングエクスペリエンスの実現。
2)既存社会関係,相互信頼,共有アイデンティティ,コミュニティ規範を通じて,買い物におけるユーザの意思決定プロセスを形作る
3) 既存の社会的関係を維持しつつ, 新たな結び合い形成に寄与する新たな社会的相互作用を創り出す。
これらの特有な側面は、IMプラットフォームの特徴と、そのようなビジネスモデルの下でのユーザ社会と経済生活の結合に密接に関連していることを示します。
本研究は, 社会的商業, 分散的, 信頼された社会工学システム全般に対して, 重要な研究と設計の意義を提供する。 As an emerging business phenomenon especially in China, instant messaging (IM) based social commerce is growing increasingly popular, attracting hundreds of millions of users and is becoming one important way where people make everyday purchases. Such platforms embed shopping experiences within IM apps, e.g., WeChat, WhatsApp, where real-world friends post and recommend products from the platforms in IM group chats and quite often form lasting recommending/buying relationships. How and why do users engage in IM based social commerce? Do such platforms create novel experiences that are distinct from prior commerce? And do these platforms bring changes to user social lives and relationships? To shed light on these questions, we launched a qualitative study where we carried out semi-structured interviews on 12 instant messaging based social commerce users in China. We showed that IM based social commerce: 1) enables more reachable, cost-reducing, and immersive user shopping experience, 2) shapes user decision-making process in shopping through pre-existing social relationship, mutual trust, shared identity, and community norm, and 3) creates novel social interactions, which can contribute to new tie formation while maintaining existing social relationships. We demonstrate that all these unique aspects link closely to the characteristics of IM platforms, as well as the coupling of user social and economic lives under such business model. Our study provides important research and design implications for social commerce, and decentralized, trusted socio-technical systems in general. | 翻訳日:2023-04-26 05:45:25 公開日:2021-01-23 |
# 猫状態を用いた二成分レゲット・ガルグとマクロベル不等式違反 : 弱実性と決定論的マクロ実性との区別 Bipartite Leggett-Garg and macroscopic Bell inequality violations using cat states: distinguishing weak and deterministic macroscopic realism ( http://arxiv.org/abs/2012.14997v2 ) ライセンス: Link先を確認 | Manushan Thenabadu and M. D. Reid | (参考訳) 我々は,Leggett-Gargのマクロリアリズムとマクロ局所リアリズムの検証を考察し,空間的に分離された測定値について,マクロな非侵襲的測定可能性の仮定をマクロな局所性の仮定によって正当化する。
スピン1/2$の固有状態に基づく微視的量子ビットのベル実験とレゲット・ガルグ実験と、2つの巨視的に異なるコヒーレント状態(cat状態)に基づく巨視的量子ビットのゲダンケン実験のマッピングを行う。
このマッピングでは、stern-gerlachアナライザのユニタリ回転は、相互作用 $h=\omega\hat{n}^{4}$ ここで$\hat{n}$は量子数である。
相互作用時間を調整することにより、測定設定を変更する。
したがって、粗粒度$\hat{M}$が2つのマクロ的に異なるコヒーレント状態の間でのみ識別する必要があるマクロな状態において、Leggett-GargとBellの不等式を予測できる。
違反を解釈するために、マクロ実数論の微妙に異なる定義を区別する。
決定論的マクロスコピック局所リアリズム(dMR)は、分析器が生成するユニタリ回転に先立って、測定値$\hat{M}$に対して明確な結果を仮定し、違反によって否定される。
弱巨視的実数論(wmr)は、ユニタリ回転の後、2つの巨視的分裂固有状態の重ね合わせである$\psi_{pointer}$ で作成される系に対して決定的な結果を与える。
wMRは違反と一致していると見なすことができる。
wMRが保持するモデルが提示され、ユニタリダイナミクスの過程でマクロ的な違反が発生する。
最後に、測度$\hat{M}$の前のシステムに対する弱いマクロ現実的記述は、量子力学の完全性とは矛盾している、EPR型パラドックスを指摘する。 We consider tests of Leggett-Garg's macrorealism and of macroscopic local realism, where for spacelike separated measurements the assumption of macroscopic noninvasive measurability is justified by that of macroscopic locality. We give a mapping between the Bell and Leggett-Garg experiments for microscopic qubits based on spin $1/2$ eigenstates and gedanken experiments for macroscopic qubits based on two macroscopically distinct coherent states (cat states). In this mapping, the unitary rotation of the Stern-Gerlach analyzer is realized by an interaction $H=\Omega\hat{n}^{4}$ where $\hat{n}$ is the number of quanta. By adjusting the time of interaction, one alters the measurement setting. We thus predict violations of Leggett-Garg and Bell inequalities in a macroscopic regime where coarse-grained measurements $\hat{M}$ need only discriminate between two macroscopically distinct coherent states. To interpret the violations, we distinguish between subtly different definitions of macroscopic realism. Deterministic macroscopic local realism (dMR) assumes a definite outcome for the measurement $\hat{M}$ prior to the unitary rotation created by the analyser, and is negated by the violations. Weak macroscopic realism (wMR) assumes a definite outcome for systems prepared in a superposition $\psi_{pointer}$ of two macroscopically-distinct eigenstates of $\hat{M}$, after the unitary rotation. We find that wMR can be viewed as consistent with the violations. A model is presented, in which wMR holds, and for which the macroscopic violations emerge over the course of the unitary dynamics. Finally, we point out an EPR-type paradox, that a weak macro-realistic description for the system prior to the measurement $\hat{M}$ is inconsistent with the completeness of quantum mechanics. | 翻訳日:2023-04-18 08:06:12 公開日:2021-01-23 |
# 弱対決定論的マクロリアリズム Weak versus deterministic macroscopic realism ( http://arxiv.org/abs/2101.09476v1 ) ライセンス: Link先を確認 | M. D. Reid and M. Thenabadu | (参考訳) 2つの巨視的特異なコヒーレント状態に基づく巨視的量子ビットのゲダンケン実験に, ベルとレゲット・ガルグの微視的量子ビット実験をマッピングする。
これは、ベルテストに関わる二コトミック測度(および関連する隠れ変数)が、システムの2つのマクロ的に異なる状態、すなわち、オーダー$\sim\hbar$の精度のレベルに値を指定しない粗粒度測度の間でのみ識別する必要があるという異常な状況をもたらす。
マクロリアリズムとマクロ局所リアリズムの違反を予測する。
マクロ的に異なるポインター固有状態の重ね合わせで作成されたシステムに対して、粗粒径のポインターの測定結果が$\hat{M}$であることを示す。
しかし、マクロ現実主義は決定論的な方法では成立せず、ベル実験における測定設定の選択を定義する単位回転の前に結果の事前決定を仮定する。
EPR(Einstein-Podolsky-Rosen)の議論に類似して、wMRが量子力学の完全性と矛盾していると考えられることを示す。 We construct a mapping of Bell and bipartite Leggett-Garg experiments for microscopic qubits onto a gedanken experiment for macroscopic qubits based on two macroscopically distinct coherent states. This provides an unusual situation where the dichotomic measurements (and associated hidden variables) involved in the Bell tests need only discriminate between two macroscopically distinct states of a system i.e. correspond to coarse-grained measurements that do not specify values to a level of precision of order $\sim\hbar$. Violations of macro-realism and macroscopic local realism are predicted. We show how one may obtain consistency with a weak form of macroscopic realism (wMR): that for a system prepared in a superposition of macroscopically distinct pointer eigenstates, the outcome of the coarse-grained pointer measurement $\hat{M}$ is predetermined. Macroscopic realism does not however hold in a deterministic fashion, where one assumes the predetermination of outcomes prior to the unitary rotations that define the choice of measurement setting in the Bell experiment. We illustrate an analogy with the Einstein-Podolsky-Rosen (EPR) argument, showing how wMR can be regarded as inconsistent with the completeness of quantum mechanics. | 翻訳日:2023-04-14 04:24:26 公開日:2021-01-23 |
# 多レベル非調和系に対するTavis-Cummingsモデルの一般化 Generalization of the Tavis-Cummings model for multi-level anharmonic systems ( http://arxiv.org/abs/2101.09475v1 ) ライセンス: Link先を確認 | Jorge A. Campos-Gonzalez-Angulo, Raphael F. Ribeiro, Joel Yuen-Zhou | (参考訳) 非調和量子放出体(分子振動など)と閉じ込められた電磁場との相互作用は、前駆体とは異なる光学的および化学的性質を持つ量子状態を引き起こす。
これらの性質の探索は典型的には、最初の励起多様体、調和近似、二階系のアンサンブル(Tavis-Cummings (TC) model)、あるいは無調和単分子の場合に制限されている。
本研究は, 初めて, 同一の多レベル非調和エミッタの集合アンサンブルと, フォトニックキャビティモードとの双極子相互作用について検討した。
システムの置換特性により、エネルギースペクトル内の対称性を分類した部分多様体を識別することができる。
このアプローチでは、典型的には数百万の順序で粒子の数が操作的観点からのみパラメータとなり、対角化する行列の次元の大きさはそれとは独立である。
定式化能力は、エネルギースペクトル構造を示し、第3の励起多様体までを示し、光子含有量を変分不変量として計算することによって示される。
強調されるのは
(a)光-物質カップリングの集団的(超ラジアント)スケーリングと、単分子の場合と対応するものを持たない暗(超ラジアン)状態の様々な部分多様体
b)TCモデルに等価でない分子1分子につき1つ以上の励起を含む非局在化モード。
これらの結果は非線形分光法やポラリトンの化学研究に応用できると期待されている。 The interaction between anharmonic quantum emitters (e.g., molecular vibrations) and confined electromagnetic fields gives rise to quantum states with optical and chemical properties that are different from those of their precursors. The exploration of these properties has been typically constrained to the first excitation manifold, the harmonic approximation, ensembles of two-level systems [Tavis-Cummings (TC) model], or the anharmonic single-molecule case. The present work studies, for the first time, a collective ensemble of identical multi-level anharmonic emitters and their dipolar interaction with a photonic cavity mode. The permutational properties of the system allow identifying symmetry classified submanifolds in the energy spectrum. Notably, in this approach, the number of particles, typically in the order of several millions, becomes only a parameter from the operational standpoint, and the size of the dimension of the matrices to diagonalize is independent of it. The formalism capabilities are illustrated by showing the energy spectrum structure, up to the third excitation manifold, and the calculation of the photon contents as a permutationally invariant quantity. Emphasis is placed on (a) the collective (superradiant) scalings of light-matter couplings and the various submanifolds of dark (subradiant) states with no counterpart in the single-molecule case, as well as (b) the delocalized modes containing more than one excitation per molecule with no equivalent in the TC model. We expect these findings to be applicable in the study of non-linear spectroscopy and chemistry of polaritons. | 翻訳日:2023-04-14 04:24:06 公開日:2021-01-23 |
# ガッピング二層グラフェンの輸送特性 Transport Properties in Gapped Bilayer Graphene ( http://arxiv.org/abs/2101.09473v1 ) ライセンス: Link先を確認 | Nadia Benlakhouy, Abderrahim El Mouhafid, Ahmed Jellal | (参考訳) 誘電体層によるAB-BLG(AB-stacked bilayer graphene)の正方形電位障壁による輸送特性について検討した。
伝達行列アプローチによるディラック様ハミルトニアンを用いることで、伝達と反射の確率と関連するコンダクタンスを得る。
2バンドモデルと通常の入射では、Fabry-P'erot共鳴型であるバイアス付きAB-BLGと比較して、伝送中に余分な共鳴が現れる。
次に,層間バイアスを考慮し,トランスミッションとアンチクレイントンネルの両方が減少していることを示す。
4つのバンドモデルに関して、このギャップは「メキシコの帽子」のような振る舞いを示すことでエネルギー範囲の伝達を抑制する。
総コンダクタンスを調べた結果,AA型二層グラフェンと比較してギャップの影響が認められた。
さらにコンダクタンス抑制は, バイアスAB-BLGよりも重要であることがわかった。 We investigate transport properties through a rectangular potential barrier in AB-stacked bilayer graphene (AB-BLG) gapped by dielectric layers. Using the Dirac-like Hamiltonian with a transfer matrix approach we obtain transmission and reflection probabilities as well as the associated conductance. For two-band model and at normal incidence, we find extra resonances appearing in transmission compared to biased AB-BLG, which are Fabry-P\'erot resonance type. Now by taking into account the inter-layer bias, we show that both of transmission and anti-Klein tunneling are diminished. Regarding four band model, we find that the gap suppresses transmission in an energy range by showing some behaviors look like "Mexican hats". We examine the total conductance and show that it is affected by the gap compared to AA-stacked bilayer graphene. In addition, we find that the suppression in conductance is more important than that for biased AB-BLG. | 翻訳日:2023-04-14 04:23:40 公開日:2021-01-23 |
# ゼロ温度スピン-ボーソン模型における非マルコフ効果 Non-Markovian effects in the spin-boson model at zero temperature ( http://arxiv.org/abs/2101.09463v1 ) ライセンス: Link先を確認 | Sebastian Wenderoth, Heinz-Peter Breuer, Michael Thoss | (参考訳) 我々は,オープンシステムと環境間の情報交換に基づく非マルコフ行動の指標を用いて,スピンボソンモデルにおける記憶効果について検討した。
数値的完全多層多角形多角形時間依存ハートリー法を用いて, スピンボーソン模型の零温度におけるダイナミクスを, 幅広いパラメータに対してシミュレーションした。
高速浴、すなわちスケーリング限界において、弱系-バス結合におけるコヒーレント崩壊スピンの非マルコフ動力学は、非コヒーレント崩壊と局所化の条件においてより強いカップリングには記憶効果が欠如している。
系と浴の時間スケールが同等であれば、非マルコビアン性の複雑で非単調な依存が系-バス結合強度に作用する。 We investigate memory effects in the spin-boson model using a recently proposed measure for non-Markovian behavior based on the information exchange between an open system and its environment. Employing the numerical exact multilayer multiconfguration time-dependent Hartree approach, we simulate the dynamics of the spin-boson model at zero temperature for a broad range of parameters. For a fast bath, i.e. in the scaling limit, we find non-Markovian dynamics for a coherently decaying spin at weak system-bath coupling, whereas memory effects are absent for stronger coupling in the regimes of incoherent decay and localization. If the time scales of system and bath are comparable, a complex, non-monotonic dependence of non-Markovianity on the system-bath coupling strength is observed. | 翻訳日:2023-04-14 04:23:23 公開日:2021-01-23 |
# 最大$k$-colorable部分グラフ問題に対するQUBO再構成のキャラクタリゼーション Characterization of QUBO reformulations for the maximum $k$-colorable subgraph problem ( http://arxiv.org/abs/2101.09462v1 ) ライセンス: Link先を確認 | Rodolfo Quintero, David Bernal, Tam\'as Terlaky, and Luis F. Zuluaga | (参考訳) 量子デバイスは、COPTの2次非制約バイナリ最適化(QUBO)の修正を得るために、COPT問題の制約を埋め込むためにペナライズ法を用いることにより、制約付き組合せ最適化(COPT)問題を解決するために使用できる。
しかし、この罰則が適用される特定の方法は、所望のQUBO改定を得るために必要となる追加のバイナリ変数の数だけでなく、ペナルティパラメータの値にも影響を及ぼす。
これらの要因は、量子コンピュータがこれらの制約されたCOPT問題を効率的に解く能力に大きく影響する。
この効率性は、量子コンピュータを用いて制約されたCOPT問題を従来のコンピュータよりも効率的に解くという目標に向かっている。
これらの線に沿って、重要な制約付きCOPT問題、すなわち最大$k$-colorable subgraph (M$k$CS)問題を考える。
この問題は、スペクトル共有ネットワーク、VLSI設計、ヒト遺伝研究、サイバーセキュリティにおけるチャネル割り当てに発生する。
我々は、M$k$CS問題に対する2つのQUBO改革法を導出し、QUBO改革法で使用可能なペナルティパラメータの範囲を完全に特徴づける。
さらに、M$k$CS問題のQUBO再構成の1つは、追加のバイナリ変数を導入することなく得られる。
D-Waveの量子アニーリングデバイス上で数値実験を行うことにより、これらのQUBO再構成の利点を実証するために、M$k$CS問題の異なるQUBO再構成をベンチマークする。
これらのテストはまた、最新のD-Waveの量子アニールデバイスを用いて得られる数値パワーも示している。 Quantum devices can be used to solve constrained combinatorial optimization (COPT) problems thanks to the use of penalization methods to embed the COPT problem's constraints in its objective to obtain a quadratic unconstrained binary optimization (QUBO) reformulation of the COPT. However, the particular way in which this penalization is carried out, affects the value of the penalty parameters, as well as the number of additional binary variables that are needed to obtain the desired QUBO reformulation. In turn, these factors substantially affect the ability of quantum computers to efficiently solve these constrained COPT problems. This efficiency is key towards the goal of using quantum computers to solve constrained COPT problems more efficiently than with classical computers. Along these lines, we consider an important constrained COPT problem; namely, the maximum $k$-colorable subgraph (M$k$CS) problem, in which the aim is to find an induced $k$-colorable subgraph with maximum cardinality in a given graph. This problem arises in channel assignment in spectrum sharing networks, VLSI design, human genetic research, and cybersecurity. We derive two QUBO reformulations for the M$k$CS problem, and fully characterize the range of the penalty parameters that can be used in the QUBO reformulations. Further, one of the QUBO reformulations of the M$k$CS problem is obtained without the need to introduce additional binary variables. To illustrate the benefits of obtaining and characterizing these QUBO reformulations, we benchmark different QUBO reformulations of the M$k$CS problem by performing numerical tests on D-Wave's quantum annealing devices. These tests also illustrate the numerical power gained by using the latest D-Wave's quantum annealing device. | 翻訳日:2023-04-14 04:23:07 公開日:2021-01-23 |
# ブロック符号復号のための自己回帰的信念伝播 Autoregressive Belief Propagation for Decoding Block Codes ( http://arxiv.org/abs/2103.11780v1 ) ライセンス: Link先を確認 | Eliya Nachmani, Lior Wolf | (参考訳) 我々は,誤り訂正符号の復号化にグラフニューラルネットワークを用いた最近の手法を再検討し,自己回帰的に計算されたメッセージを利用する。
可変ノードの出力メッセージは、受信するメッセージだけでなく、SNRと推論されたコードワードと2つの下流計算にも条件付けされる。
(i)パリティチェック結果の拡張ベクトル。
(ii) 推論されたコードワードとこのコードワードの情報ビットの再エンコードとのミスマッチ。
この分野のほとんどの学習方法とは異なり、我々の手法は、他の手法がゼロワードでのみ訓練できる対称性条件に反する。
1つの単語でトレーニングする余裕がなく、関連するサンプルスペースのごく一部しかトレーニングできないにもかかわらず、効果的なトレーニングを実演しています。
新しい手法は、最新の手法よりも大きなマージンで優れたビット誤り率を得る。 We revisit recent methods that employ graph neural networks for decoding error correcting codes and employ messages that are computed in an autoregressive manner. The outgoing messages of the variable nodes are conditioned not only on the incoming messages, but also on an estimation of the SNR and on the inferred codeword and on two downstream computations: (i) an extended vector of parity check outcomes, (ii) the mismatch between the inferred codeword and the re-encoding of the information bits of this codeword. Unlike most learned methods in the field, our method violates the symmetry conditions that enable the other methods to train exclusively with the zero-word. Despite not having the luxury of training on a single word, and the inability to train on more than a small fraction of the relevant sample space, we demonstrate effective training. The new method obtains a bit error rate that outperforms the latest methods by a sizable margin. | 翻訳日:2023-04-14 04:17:44 公開日:2021-01-23 |
# 機械学習モデルによる成功学生の健康・行動傾向の理解 Understanding health and behavioral trends of successful students through machine learning models ( http://arxiv.org/abs/2102.04212v1 ) ライセンス: Link先を確認 | Abigale Kim, Fateme Nikseresht, Janine M. Dutcher, Michael Tumminia, Daniella Villalba, Sheldon Cohen, Kasey Creswel, David Creswell, Anind K. Dey, Jennifer Mankoff and Afsaneh Doryab | (参考訳) 本研究は,学期ごとに異なる時期の大学生の身体的,精神的,ライフスタイル,性格的要因のパターンを分析し,学生の学業成績との関係をモデル化する。
分析データはスマートフォンとFitbitで収集された。
収集したデータから得られた機械学習モデルを用いて, gpa, 生活習慣, 身体的健康, メンタルヘルス, パーソナリティ属性に関連する学生の行動の程度を観察した。
結果の正確さではなく,モデルパラメータと特徴量の重みを共通行動傾向の発見に用いる相互一致法が提案された。
モデル作成の結果から,より高度なGPAとして定義された学業成功の最も重要な指標は,学生が時間を費やした場所であると判断された。
ライフスタイルとパーソナリティの要因は、精神的・身体的要因よりも重要であると考えられた。
本研究は,学生の学業成績に及ぼす異なる要因の影響と要因のタイミングについて考察する。 This study analyzes patterns of physical, mental, lifestyle, and personality factors in college students in different periods over the course of a semester and models their relationships with students' academic performance. The data analyzed was collected through smartphones and Fitbit. The use of machine learning models derived from the gathered data was employed to observe the extent of students' behavior associated with their GPA, lifestyle, physical health, mental health, and personality attributes. A mutual agreement method was used in which rather than looking at the accuracy of results, the model parameters and weights of features were used to find common behavioral trends. From the results of the model creation, it was determined that the most significant indicator of academic success defined as a higher GPA, was the places a student spent their time. Lifestyle and personality factors were deemed more significant than mental and physical factors. This study will provide insight into the impact of different factors and the timing of those factors on students' academic performance. | 翻訳日:2023-04-14 04:17:31 公開日:2021-01-23 |
# 雑音量子プロセッサを用いた高次元データの機械学習 Machine learning of high dimensional data on a noisy quantum processor ( http://arxiv.org/abs/2101.09581v1 ) ライセンス: Link先を確認 | Evan Peters, Jo\~ao Caldeira, Alan Ho, Stefan Leichenauer, Masoud Mohseni, Hartmut Neven, Panagiotis Spentzouris, Doug Strain, Gabriel N. Perdue | (参考訳) 本稿では,google の汎用量子プロセッサ sycamore を用いた高次元データ解析のための量子カーネル法を提案する。
本手法は,超新星分類の宇宙論的ベンチマークに適用し,次元を減少させることなく,核要素を消滅させることなく,実スペクトル特徴量を用いた。
この実験は、低次元の合成データセットを使用したり、古典的な機械学習アルゴリズムでデータを前処理する代わりに、実際の高次元データによる機械学習が量子プロセッサを用いて可能であることを実証するが、回路アンサッツを構築する際には、ショット統計と平均カーネル要素サイズに注意が必要である。
我々の実験では、17量子ビットを用いて67次元データを分類し、最大の量子カーネル実験よりもはるかに高い次元で、ノイズレスシミュレーションと同等の古典的手法と競合する分類精度をもたらす。 We present a quantum kernel method for high-dimensional data analysis using Google's universal quantum processor, Sycamore. This method is successfully applied to the cosmological benchmark of supernova classification using real spectral features with no dimensionality reduction and without vanishing kernel elements. Instead of using a synthetic dataset of low dimension or pre-processing the data with a classical machine learning algorithm to reduce the data dimension, this experiment demonstrates that machine learning with real, high dimensional data is possible using a quantum processor; but it requires careful attention to shot statistics and mean kernel element size when constructing a circuit ansatz. Our experiment utilizes 17 qubits to classify 67 dimensional data - significantly higher dimensionality than the largest prior quantum kernel experiments - resulting in classification accuracy that is competitive with noiseless simulation and comparable classical techniques. | 翻訳日:2023-04-14 04:17:15 公開日:2021-01-23 |
# Dirac Book The Principles of Quantum Mechanics as provide the alternative organization of a theory Dirac Book The Principles Of Quantum Mechanics as presenting the alternative organization of a theory ( http://arxiv.org/abs/2101.09565v1 ) ライセンス: Link先を確認 | Antonino Drago | (参考訳) 権威ある評価は、この本を公理論として認定した。
しかし、その本質的な内容は類推に留まらず、理論的な組織は公理的なものではない。
実際、第1版ではディラックは公理的なプレゼンテーションを避けることを宣言している。
さらに,量子力学が古典力学とどのように似ているかという基本的な問題を解くことを目的としていることを示す。
前回の論文では、過去の物理学、化学、数学の全ての理論を分析し、それぞれの著者が非アキソマティックな方法で提示した。
理論を組織化する新しいモデルの4つの特徴が認識されている。
ディラックのテキストの正確な検査は、実際にこのような理論の組織を適用したことを証明している。
この事実は、クロンツとルファーが直感的なカテゴリー、プラグマティズムと厳密さ、つまり量子力学のディラック定式化を通じて提案したことの正式な理由を与えている。
しかし、第2版でディラックの態度が変わり、再びアナロジーに依拠したが、彼の理論は公理学的な方法に言及された。
現在 QM の定式化に繋がる奇路に関するいくつかの考察が加えられた。
彼らはこの理論の新たな基礎を探すことを提案している。 Authoritative appraisals qualified this book as an axiomatic theory. However, being its essential content no more than an analogy, its theoretical organization cannot be an axiomatic one. In fact, in the first edition Dirac declares to avoid an axiomatic presentation. Moreover, I show that the text is aimed at solving a basic problem: How quantum mechanics is similar to classical mechanics. A previous paper analyzed all past theories of physics, chemistry and mathematics, presented by the respective authors in a non-axiomatic way. Four characteristic features of a new model of organizing a theory have been recognized. An accurate inspection of Dirac text proves that it actually applied this kind of organization of a theory. This fact gives a formal reason of what Kronz and Lupher suggested through intuitive categories, pragmatism and rigor, i.e. Dirac formulation of Quantum mechanics represents a distinct theoretical attitude from von Neumann axiomatic attitude. However, since the second edition Dirac changed his attitude; although relying again on an analogy, his theory was referred to the axiomatic method. Some considerations on the odd paths which led to the present formulation of QM are added. They suggest to look for a new foundation of this theory. | 翻訳日:2023-04-14 04:17:01 公開日:2021-01-23 |
# 自動選好型多目的進化アルゴリズムによる車両のメンテナンススケジューリング最適化 Automatic Preference Based Multi-objective Evolutionary Algorithm on Vehicle Fleet Maintenance Scheduling Optimization ( http://arxiv.org/abs/2101.09556v1 ) ライセンス: Link先を確認 | Yali Wang, Steffen Limmer, Markus Olhofer, Michael Emmerich, Thomas Baeck | (参考訳) 自動検出膝点領域における解を生成するために, 選好に基づく多目的進化アルゴリズムを提案する。
自動推論に基づくDI-MOEA (AP-DI-MOEA) と呼ばれ、DI-MOEAは多目的進化アルゴリズム(diversity-Indicator based Multi-Objective Evolutionary Algorithm)の略である。
AP-DI-MOEAには2つの主な特徴がある: まず、最適化中に自動的に優先領域を生成する。
さらに, 車両の部品の故障分布を予測し, 車両のメンテナンススケジュールを最適化するために, 実世界の車両のメンテナンススケジューリング最適化 (VFMSO) 問題を定式化し, カスタマイズされた多目的進化アルゴリズム (MOEA) を提案する。
さらに、VFMSO用にカスタマイズされたMOEAとAP-DI-MOEAを組み合わせることで、自動生成された嗜好領域におけるメンテナンススケジュールを見つける。
多目的ベンチマーク問題と3目的実世界のアプリケーション問題に対する実験結果から,新たに提案したアルゴリズムが選好領域を正確に生成し,選好領域でより良い解が得られることが示された。
特に、同じ予算の下では、AP-DI-MOEAによって得られるパレート最適解が、パレートフロント全体を追求するMOEAによって得られる解を支配している。 A preference based multi-objective evolutionary algorithm is proposed for generating solutions in an automatically detected knee point region. It is named Automatic Preference based DI-MOEA (AP-DI-MOEA) where DI-MOEA stands for Diversity-Indicator based Multi-Objective Evolutionary Algorithm). AP-DI-MOEA has two main characteristics: firstly, it generates the preference region automatically during the optimization; secondly, it concentrates the solution set in this preference region. Moreover, the real-world vehicle fleet maintenance scheduling optimization (VFMSO) problem is formulated, and a customized multi-objective evolutionary algorithm (MOEA) is proposed to optimize maintenance schedules of vehicle fleets based on the predicted failure distribution of the components of cars. Furthermore, the customized MOEA for VFMSO is combined with AP-DI-MOEA to find maintenance schedules in the automatically generated preference region. Experimental results on multi-objective benchmark problems and our three-objective real-world application problems show that the newly proposed algorithm can generate the preference region accurately and that it can obtain better solutions in the preference region. Especially, in many cases, under the same budget, the Pareto optimal solutions obtained by AP-DI-MOEA dominate solutions obtained by MOEAs that pursue the entire Pareto front. | 翻訳日:2023-04-14 04:16:37 公開日:2021-01-23 |
# 一般化集合ラムシフト Generalized Collective Lamb Shift ( http://arxiv.org/abs/2101.09550v1 ) ライセンス: Link先を確認 | Andrew Stasiuk, Lane G. Gunderman, Mohamed El Mandouh, Troy W. Borneman, David G. Cory | (参考訳) 単一モード電磁界と相互作用する2レベルシステムからなるハイブリッド量子システムは、量子情報プロセッサやその他の量子デバイスの開発において重要である。
これらの系は、アンサンブルとフィールドモードがコヒーレントに高協調性と相互作用するときに起こる集合ラムシフトによって分割されるエネルギーレベルのハイブリッド化によって特徴づけられる。
ラムシフトの完全な計算は、多くのデバイスの高次元性を考えると、一般に難解である。
本研究では,状態空間上の制限近似を用いることなく,アンサンブルのすべての集合角運動量部分空間におけるラムシフト統計量のコンパクトな記述を可能にする手法を提案する。
これらの手法は、すべての部分空間におけるラムシフトと励起多様体の解析と、すべての部分空間の退化に重み付けられた平均的なラムシフトを記述するために用いられる。 Hybrid quantum systems consisting of an ensemble of two--level systems interacting with a single--mode electromagnetic field are important for the development of quantum information processors and other quantum devices. These systems are characterized by the set of energy level hybridizations, split by collective Lamb shifts, that occur when the ensemble and field mode interact coherently with high cooperativity. Computing the full set of Lamb shifts is generally intractable given the high dimensionality of many devices. In this work, we present a set of techniques that allow a compact description of the Lamb shift statistics across all collective angular momentum subspaces of the ensemble without using restrictive approximations on the state space. We use these techniques to both analyze the Lamb shift in all subspaces and excitation manifolds and to describe the average observed Lamb shift weighted over the degeneracies of all subspaces. | 翻訳日:2023-04-14 04:16:14 公開日:2021-01-23 |
# スピン量子ビットの透過型トモグラフィー Transmission based tomography for spin qubits ( http://arxiv.org/abs/2101.09544v1 ) ライセンス: Link先を確認 | Amritesh Sharma, Ashwin A. Tulapurkar | (参考訳) 1次元スピンコヒーレントチャネルに埋め込まれた静的スピン量子ビットの系を考察し、1および2つの量子ビットの状態を読み取るスキームを別々に開発する。
この目的のために、ハイゼンベルク交換相互作用により静的な量子ビットから散乱する非偏極飛行量子ビットを用いる。
密度行列要素の関数として伝達係数を解析し、追加のユニタリゲートとともに静的量子ビットの状態の再構成を行う。 We consider a system of static spin qubits embedded in a one-dimensional spin coherent channel and develop a scheme to readout the state of one and two qubits separately. We use unpolarized flying qubits for this purpose that scatter off from the static qubits due to the Heisenberg exchange interaction. Analysing the transmission coefficient as a function of density matrix elements along with additional unitary gates we reconstruct the state of static qubits. | 翻訳日:2023-04-14 04:16:01 公開日:2021-01-23 |
# Svetlichny作用素の局所フィルタリングと隠れ真の非局所性の下での量子値の高次上限 Tight upper bound on the quantum value of Svetlichny operators under local filtering and hidden genuine nonlocality ( http://arxiv.org/abs/2101.09540v1 ) ライセンス: Link先を確認 | Lingyun Sun, Li Xu, Jing Wang, Ming Li, Shuqian Shen, Lei Li and Shaoming Fei | (参考訳) 量子サブシステム間の非局所量子相関は、量子科学において重要な役割を果たす。
Svetlichnyの不等式違反は、真の三部類非局所性の十分な条件を与える。
Svetlichny演算子の局所フィルタリング操作における最大量子値の強い上界を提供し、3ビット系に対する隠れ真非局所性に関する定性的解析を行う。
局所フィルタリングにより隠れた真の非局所性を明らかにすることができる3量子状態の2つのクラスを詳細に検討する。 Nonlocal quantum correlations among the quantum subsystems play essential roles in quantum science. The violation of the Svetlichny inequality provides sufficient conditions of genuine tripartite nonlocality. We provide tight upper bounds on the maximal quantum value of the Svetlichny operators under local filtering operations, and present a qualitative analytical analysis on the hidden genuine nonlocality for three-qubit systems. We investigate in detail two classes of three-qubit states whose hidden genuine nonlocalities can be revealed by local filtering. | 翻訳日:2023-04-14 04:15:53 公開日:2021-01-23 |
# 自動運転のための深層強化学習:サーベイ Deep Reinforcement Learning for Autonomous Driving: A Survey ( http://arxiv.org/abs/2002.00444v2 ) ライセンス: Link先を確認 | B Ravi Kiran, Ibrahim Sobh, Victor Talpaert, Patrick Mannion, Ahmad A. Al Sallab, Senthil Yogamani, Patrick P\'erez | (参考訳) 深層表現学習の開発により、強化学習(rl)の領域は、高次元環境で複雑なポリシーを学習できる強力な学習フレームワークとなった。
本総説では, 自律運転エージェントの現実展開における重要な計算課題に対処しつつ, 深部強化学習(DRL)アルゴリズムを要約し, (D)RL手法を用いた自動運転タスクの分類を提供する。
また、振る舞いのクローン化、模倣学習、関連するが古典的rlアルゴリズムではない逆強化学習など、隣接するドメインを記述している。
トレーニングエージェントにおけるシミュレータの役割,RLにおける既存ソリューションの検証,テスト,堅牢化手法について論じる。 With the development of deep representation learning, the domain of reinforcement learning (RL) has become a powerful learning framework now capable of learning complex policies in high dimensional environments. This review summarises deep reinforcement learning (DRL) algorithms and provides a taxonomy of automated driving tasks where (D)RL methods have been employed, while addressing key computational challenges in real world deployment of autonomous driving agents. It also delineates adjacent domains such as behavior cloning, imitation learning, inverse reinforcement learning that are related but are not classical RL algorithms. The role of simulators in training agents, methods to validate, test and robustify existing solutions in RL are discussed. | 翻訳日:2023-01-04 19:58:17 公開日:2021-01-23 |
# 頑健な医用画像分割のためのテスト時間適応型ニューラルネットワーク Test-Time Adaptable Neural Networks for Robust Medical Image Segmentation ( http://arxiv.org/abs/2004.04668v4 ) ライセンス: Link先を確認 | Neerav Karani, Ertunc Erdil, Krishna Chaitanya, and Ender Konukoglu | (参考訳) 畳み込みニューラルネットワーク(CNN)は、トレーニングデータセットがテスト時に発生するであろう変動を表す場合、教師付き学習問題に対して非常にうまく機能する。
医用画像セグメンテーションにおいて、この前提は、スキャナーモデルやプロトコルなどの取得の詳細の観点から、トレーニングとテストイメージのミスマッチがある場合に違反する。
このシナリオにおけるCNNの性能劣化は文献でよく記録されている。
この問題に対処するために,比較的浅い画像正規化CNNと,正規化画像を分割する深いCNNという,2つのサブネットワークの結合としてセグメンテーションCNNを設計する。
我々は、これらのサブネットワークの両方を、特定のスキャナとプロトコル設定からの注釈付き画像からなるトレーニングデータセットを使用してトレーニングする。
現在、テスト時には、予測されたセグメンテーションラベルに暗黙的に先行して導かれる \emph{each test image} のイメージ正規化サブネットワークに適応する。
このような暗黙の先行する解剖学的セグメンテーションラベルをモデル化するために、独立に訓練されたdenoising autoencoder (dae) を採用している。
脳、心臓、前立腺の3つの解剖学の多中心磁気共鳴画像データセットについて提案するアイデアを検証する。
提案したテスト時間適応は、継続的にパフォーマンスを改善し、アプローチの約束と汎用性を実証する。
第2のサブネットワークであるディープCNNのアーキテクチャに依存せず、任意のセグメンテーションネットワークを用いて画像スキャナやプロトコルの変動に対する堅牢性を高めることができる。
私たちのコードは、 \url{https://github.com/neerakara/test-time-adaptable-neural-networks-for-domain-generalization} で利用可能です。 Convolutional Neural Networks (CNNs) work very well for supervised learning problems when the training dataset is representative of the variations expected to be encountered at test time. In medical image segmentation, this premise is violated when there is a mismatch between training and test images in terms of their acquisition details, such as the scanner model or the protocol. Remarkable performance degradation of CNNs in this scenario is well documented in the literature. To address this problem, we design the segmentation CNN as a concatenation of two sub-networks: a relatively shallow image normalization CNN, followed by a deep CNN that segments the normalized image. We train both these sub-networks using a training dataset, consisting of annotated images from a particular scanner and protocol setting. Now, at test time, we adapt the image normalization sub-network for \emph{each test image}, guided by an implicit prior on the predicted segmentation labels. We employ an independently trained denoising autoencoder (DAE) in order to model such an implicit prior on plausible anatomical segmentation labels. We validate the proposed idea on multi-center Magnetic Resonance imaging datasets of three anatomies: brain, heart and prostate. The proposed test-time adaptation consistently provides performance improvement, demonstrating the promise and generality of the approach. Being agnostic to the architecture of the deep CNN, the second sub-network, the proposed design can be utilized with any segmentation network to increase robustness to variations in imaging scanners and protocols. Our code is available at: \url{https://github.com/neerakara/test-time-adaptable-neural-networks-for-domain-generalization}. | 翻訳日:2022-12-15 02:02:20 公開日:2021-01-23 |
# MetricUNet: オンラインサンプリングによる高精度CT前立腺分割のための合成画像とボクセルレベル学習 MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT Prostate Segmentation via Online Sampling ( http://arxiv.org/abs/2005.07462v4 ) ライセンス: Link先を確認 | Kelei He, Chunfeng Lian, Ehsan Adeli, Jing Huo, Yang Gao, Bing Zhang, Junfeng Zhang, Dinggang Shen | (参考訳) unetやvnetを含む完全畳み込みネットワーク(fcns)は、セマンティックセグメンテーションのための広く使われているネットワークアーキテクチャである。
しかし、従来のfcnはクロスエントロピーやサイスロスによって訓練されており、ピクセルの予測と接地ラベルの誤差を個別に計算するだけである。
これはしばしば予測されたセグメンテーションの非スムース近傍をもたらす。
この問題に対処するために,前立腺領域を高速にローカライズする第1段階と,マルチタスクUNetアーキテクチャにより前立腺領域を正確に分割する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
したがって,提案するネットワークは2つのタスクに対応するデュアルブランチアーキテクチャを有する。
1)前立腺セグメンテーション生成を目的としたセグメンテーションサブネットワーク、及び
2) 計量損失によって教師される学習特徴空間の品質向上を目的としたボクセルメトリック学習サブネットワーク。
具体的には、voxel-metric learningサブネットワークは、中間特徴マップを通じてvoxelレベルにあるタプル(三重項とペアを含む)をサンプリングする。
トレーニング前に画像レベルでトリプレットやペアを生成する従来のディープメトリック学習手法とは異なり,提案するvoxel-wiseタプルをオンライン形式でサンプリングし,マルチタスク学習によるエンドツーエンドで運用する。
提案手法を評価するために,339人の患者からなる実CT画像データセットについて広範な実験を行った。
アブレーション研究は,従来のクロスエントロピー法やダイス損失法に比べて,より代表的なボクセルレベルの特徴を効果的に学習できることを示した。
比較の結果,提案手法は最先端手法よりも合理的なマージンで優れていることがわかった。 Fully convolutional networks (FCNs), including UNet and VNet, are widely-used network architectures for semantic segmentation in recent studies. However, conventional FCN is typically trained by the cross-entropy or Dice loss, which only calculates the error between predictions and ground-truth labels for pixels individually. This often results in non-smooth neighborhoods in the predicted segmentation. To address this problem, we propose a two-stage framework, with the first stage to quickly localize the prostate region and the second stage to precisely segment the prostate by a multi-task UNet architecture. We introduce a novel online metric learning module through voxel-wise sampling in the multi-task network. Therefore, the proposed network has a dual-branch architecture that tackles two tasks: 1) a segmentation sub-network aiming to generate the prostate segmentation, and 2) a voxel-metric learning sub-network aiming to improve the quality of the learned feature space supervised by a metric loss. Specifically, the voxel-metric learning sub-network samples tuples (including triplets and pairs) in voxel-level through the intermediate feature maps. Unlike conventional deep metric learning methods that generate triplets or pairs in image-level before the training phase, our proposed voxel-wise tuples are sampled in an online manner and operated in an end-to-end fashion via multi-task learning. To evaluate the proposed method, we implement extensive experiments on a real CT image dataset consisting of 339 patients. The ablation studies show that our method can effectively learn more representative voxel-level features compared with the conventional learning methods with cross-entropy or Dice loss. And the comparisons show that the proposed method outperforms the state-of-the-art methods by a reasonable margin. | 翻訳日:2022-12-02 22:51:15 公開日:2021-01-23 |
# ポートフォリオ最適化のためのディープラーニング Deep Learning for Portfolio Optimization ( http://arxiv.org/abs/2005.13665v3 ) ライセンス: Link先を確認 | Zihao Zhang, Stefan Zohren, Stephen Roberts | (参考訳) ポートフォリオシャープ比率を直接最適化するために、ディープラーニングモデルを採用しています。
本稿では,期待されるリターンを予測するための要求を回避し,モデルパラメータを更新することによってポートフォリオの重み付けを直接最適化する。
個々の資産を選択する代わりに、市場指標の為替取引ファンド(etf)を取引してポートフォリオを形成します。
異なる資産クラスの指標は、堅牢な相関を示し、それらを取引することで、利用可能な資産のスペクトルを著しく減少させる。
我々は,本手法を幅広いアルゴリズムと比較し,本モデルが2011年から2020年4月末までの試験期間において,2020年第1四半期の金融不安定を含む最高の性能を得たことを示す結果と比較した。
入力特徴の関連性を理解するために感度分析を行い, ボラティリティスケーリングを通じて, コストレートとリスクレベルの違いによるアプローチの性能について検討する。 We adopt deep learning models to directly optimise the portfolio Sharpe ratio. The framework we present circumvents the requirements for forecasting expected returns and allows us to directly optimise portfolio weights by updating model parameters. Instead of selecting individual assets, we trade Exchange-Traded Funds (ETFs) of market indices to form a portfolio. Indices of different asset classes show robust correlations and trading them substantially reduces the spectrum of available assets to choose from. We compare our method with a wide range of algorithms with results showing that our model obtains the best performance over the testing period, from 2011 to the end of April 2020, including the financial instabilities of the first quarter of 2020. A sensitivity analysis is included to understand the relevance of input features and we further study the performance of our approach under different cost rates and different risk levels via volatility scaling. | 翻訳日:2022-11-28 09:58:05 公開日:2021-01-23 |
# タンパク質複合体の構造モデル選択のための階層的、回転同変ニューラルネットワーク Hierarchical, rotation-equivariant neural networks to select structural models of protein complexes ( http://arxiv.org/abs/2006.09275v2 ) ライセンス: Link先を確認 | Stephan Eismann, Raphael J.L. Townshend, Nathaniel Thomas, Milind Jagota, Bowen Jing, Ron O. Dror | (参考訳) 多タンパク質複合体の構造を予測することは生化学において大きな課題であり、基礎科学と薬物発見に大きな意味を持つ。
計算構造予測法は通常、正確な構造モデルをより正確なものと区別するために事前定義された構造特徴を利用する。
これは、タンパク質複合体の原子座標から直接正確なモデルの特徴を事前の仮定なしで学べるかどうかという問題を提起する。
本稿では,全ての原子の3次元位置から直接学習し,事前計算された物理学的,統計的な用語を用いずに,タンパク質複合体の正確なモデルを特定する機械学習手法を提案する。
我々のニューラルネットワークアーキテクチャは、数万の原子を含む分子構造からエンドツーエンドの学習を可能にする複数の要素を組み合わせる:原子の点ベースの表現、回転と変換に対する等分散、局所畳み込み、階層的サブサンプリング操作。
従来開発されたスコアリング機能と組み合わせて使用すると,ネットワークは,可能な多数のモデルの中から正確な構造モデルの識別を大幅に改善する。
我々のネットワークは、与えられた構造モデルの精度を絶対的に予測するためにも利用できる。
提案するアーキテクチャは、大規模原子系の3次元構造を学習する他のタスクにも容易に適用できる。 Predicting the structure of multi-protein complexes is a grand challenge in biochemistry, with major implications for basic science and drug discovery. Computational structure prediction methods generally leverage pre-defined structural features to distinguish accurate structural models from less accurate ones. This raises the question of whether it is possible to learn characteristics of accurate models directly from atomic coordinates of protein complexes, with no prior assumptions. Here we introduce a machine learning method that learns directly from the 3D positions of all atoms to identify accurate models of protein complexes, without using any pre-computed physics-inspired or statistical terms. Our neural network architecture combines multiple ingredients that together enable end-to-end learning from molecular structures containing tens of thousands of atoms: a point-based representation of atoms, equivariance with respect to rotation and translation, local convolutions, and hierarchical subsampling operations. When used in combination with previously developed scoring functions, our network substantially improves the identification of accurate structural models among a large set of possible models. Our network can also be used to predict the accuracy of a given structural model in absolute terms. The architecture we present is readily applicable to other tasks involving learning on 3D structures of large atomic systems. | 翻訳日:2022-11-25 02:42:57 公開日:2021-01-23 |
# 生成的ニューロシンボリックモデリングによるタスク一般表現の学習 Learning Task-General Representations with Generative Neuro-Symbolic Modeling ( http://arxiv.org/abs/2006.14448v2 ) ライセンス: Link先を確認 | Reuben Feinman, Brenden M. Lake | (参考訳) 生の知覚入力のみから、リッチで汎用的な概念表現を学ぶことができる。
現在の機械学習アプローチは、これらの人間の標準にかなり欠落しているが、異なるモデリングの伝統はしばしば補完的な強みを持っている。
シンボリックモデルは、フレキシブルな一般化を可能にする構成的および因果的知識を捉えることができるが、それらは強い抽象化と仮定の単純化に頼って、生の入力から学ぶのに苦労する。
ニューラルネットワークモデルは生のデータから直接学習できるが、合成構造や因果構造を捉えるのに苦労し、新しいタスクに取り組むために再訓練する必要がある。
これら2つの伝統をまとめ、生のデータから学びながら、豊かな構成構造と因果構造を捉えた概念の生成モデルを学ぶ。
本稿では,確率的プログラムの制御フローとシンボリック・ストローク・プリミティブとシンボリック・イメージ・レンダラーを組み合わせた,手書き文字概念の生成的ニューロシンボリック(gns)モデルを開発し,文字の生成過程と構成過程を表現する。
部品(ストローク)の分布と部品間の相関はニューラルネットワークサブルーチンでモデル化され、モデルが生データから直接学習し、非パラメトリックな統計関係を表現することができる。
我々は,人文レベルの概念学習におけるOmniglot問題に適用し,アルファベットの背景集合を用いて文字図面上の表現的事前分布を学習する。
その後の評価において、gsモデルは確率的推論を使用して、単一のトレーニングイメージからリッチな概念表現を学習し、4つのユニークなタスクに一般化します。 People can learn rich, general-purpose conceptual representations from only raw perceptual inputs. Current machine learning approaches fall well short of these human standards, although different modeling traditions often have complementary strengths. Symbolic models can capture the compositional and causal knowledge that enables flexible generalization, but they struggle to learn from raw inputs, relying on strong abstractions and simplifying assumptions. Neural network models can learn directly from raw data, but they struggle to capture compositional and causal structure and typically must retrain to tackle new tasks. We bring together these two traditions to learn generative models of concepts that capture rich compositional and causal structure, while learning from raw data. We develop a generative neuro-symbolic (GNS) model of handwritten character concepts that uses the control flow of a probabilistic program, coupled with symbolic stroke primitives and a symbolic image renderer, to represent the causal and compositional processes by which characters are formed. The distributions of parts (strokes), and correlations between parts, are modeled with neural network subroutines, allowing the model to learn directly from raw data and express nonparametric statistical relationships. We apply our model to the Omniglot challenge of human-level concept learning, using a background set of alphabets to learn an expressive prior distribution over character drawings. In a subsequent evaluation, our GNS model uses probabilistic inference to learn rich conceptual representations from a single training image that generalize to 4 unique tasks, succeeding where previous work has fallen short. | 翻訳日:2022-11-17 02:47:49 公開日:2021-01-23 |
# RE-MIMO: Recurrent and Permutation Equivariant Neural MIMO Detection RE-MIMO: Recurrent and Permutation Equivariant Neural MIMO Detection ( http://arxiv.org/abs/2007.00140v2 ) ライセンス: Link先を確認 | Kumar Pratik, Bhaskar D. Rao, Max Welling | (参考訳) 本稿では,MIMOシンボル検出のためのニューラルネットワークを提案する。
無線通信システムにおけるいくつかの重要な考慮 – 置換等分散とユーザ数の変動 – によって動機付けられている。
神経検出器は反復単位のスタックとして実装された反復復号アルゴリズムを学習する。
各反復ユニットは、3つのサブモジュールからなるニューラル計算モジュールである: 可能性モジュール、エンコーダモジュール、および予測モジュール。
likelihoodモジュールは、生成的(前方)プロセスに関する情報をニューラルネットワークに注入する。
エンコーダ-予測モジュールは状態ベクトルとシンボル推定を更新する。
エンコーダモジュールは状態ベクトルを更新し、変圧器ベースのアテンションネットワークを使用して、ユーザ間のインタラクションを置換同変方式で処理する。
予測モジュールはシンボル推定を洗練する。
モジュラーおよび置換同変アーキテクチャは、様々な数のユーザを扱うことができる。
結果として生じるニューラル検出器アーキテクチャはユニークで、これまで提案されたニューラル検出器のどれにも見つからないいくつかの望ましい特性を示す。
その性能を既存手法と比較すると,ネットワークが可変数の送信機を高精度で効率的に処理できることを示す。 In this paper, we present a novel neural network for MIMO symbol detection. It is motivated by several important considerations in wireless communication systems; permutation equivariance and a variable number of users. The neural detector learns an iterative decoding algorithm that is implemented as a stack of iterative units. Each iterative unit is a neural computation module comprising of 3 sub-modules: the likelihood module, the encoder module, and the predictor module. The likelihood module injects information about the generative (forward) process into the neural network. The encoder-predictor modules together update the state vector and symbol estimates. The encoder module updates the state vector and employs a transformer based attention network to handle the interactions among the users in a permutation equivariant manner. The predictor module refines the symbol estimates. The modular and permutation equivariant architecture allows for dealing with a varying number of users. The resulting neural detector architecture is unique and exhibits several desirable properties unseen in any of the previously proposed neural detectors. We compare its performance against existing methods and the results show the ability of our network to efficiently handle a variable number of transmitters with high accuracy. | 翻訳日:2022-11-15 06:06:09 公開日:2021-01-23 |
# polyth-net:深層学習によるゴミ分離のためのポリテインバッグの分類 Polyth-Net: Classification of Polythene Bags for Garbage Segregation Using Deep Learning ( http://arxiv.org/abs/2008.07592v4 ) ライセンス: Link先を確認 | Divyansh Singh | (参考訳) ポリテインはその発明以来常に環境への脅威である。
生分解性はなく、リサイクルが非常に難しい。
多くの啓発活動や実践の後でも、ポリテイン袋と廃棄物の分離は人類の文明にとって課題となっている。
隔離の第一の方法は手作業による手探りであり、労働者に危険な健康被害をもたらし、人的ミスのために非常に非効率である。
本稿では,ディープラーニングモデルを用いたポリテーヌ袋のイメージベース分類とその効率性について検討した。
本稿では,データセットの性能のアーキテクチャと統計的解析,および分類で経験した問題について述べる。
また、個々の特徴に関係なく、ポリテインを特異的に検出する修飾損失関数も提案されている。
現在の環境保護の取り組みを支援し、現在の方法によって引き起こされる危険により失われた無数の命を救うことを目的としている。 Polythene has always been a threat to the environment since its invention. It is non-biodegradable and very difficult to recycle. Even after many awareness campaigns and practices, Separation of polythene bags from waste has been a challenge for human civilization. The primary method of segregation deployed is manual handpicking, which causes a dangerous health hazards to the workers and is also highly inefficient due to human errors. In this paper I have designed and researched on image-based classification of polythene bags using a deep-learning model and its efficiency. This paper focuses on the architecture and statistical analysis of its performance on the data set as well as problems experienced in the classification. It also suggests a modified loss function to specifically detect polythene irrespective of its individual features. It aims to help the current environment protection endeavours and save countless lives lost to the hazards caused by current methods. | 翻訳日:2022-10-31 05:12:22 公開日:2021-01-23 |
# ディファレンシャルプライバシの3つの変種:ロスレス変換と応用 Three Variants of Differential Privacy: Lossless Conversion and Applications ( http://arxiv.org/abs/2008.06529v2 ) ライセンス: Link先を確認 | Shahab Asoodeh, Jiachun Liao, Flavio P. Calmon, Oliver Kosut, and Lalitha Sankar | (参考訳) 差分プライバシー(DP)の3つの変種、すなわち近似DP、R'enyi DP(RDP)、仮説テストDPを考える。
第1部では、近似DPとRDPを基盤とする2つの$f$-divergencesの結合範囲に基づいて、近似DPとRDPを最適に関連付ける機械を開発する。
特に、与えられたDPレベルを満たすメカニズムの最適近似DPパラメータを導出することができる。
アプリケーションとして、ノイズのある確率勾配勾配(SGD)のプライバシー保証を特徴付けるためのモーメント会計フレームワークに適用する。
最新技術と比較すると、同じプライバシー予算でディープラーニングモデルをトレーニングするために、私たちの限界は100回ほど確率的な勾配降下イテレーションにつながります。
第二部では, rdp と仮説テスト dp の関係を確立し, rdp の制約を, ある二項仮説テストのタイプ i とタイプ ii の誤差確率のトレードオフに翻訳する。
次に、ノイズの多いSGDに対して、我々の結果は、最近提案されたパラメータの$f$-DPフレームワークと比較して、より厳しいプライバシー保証につながることを実証します。 We consider three different variants of differential privacy (DP), namely approximate DP, R\'enyi DP (RDP), and hypothesis test DP. In the first part, we develop a machinery for optimally relating approximate DP to RDP based on the joint range of two $f$-divergences that underlie the approximate DP and RDP. In particular, this enables us to derive the optimal approximate DP parameters of a mechanism that satisfies a given level of RDP. As an application, we apply our result to the moments accountant framework for characterizing privacy guarantees of noisy stochastic gradient descent (SGD). When compared to the state-of-the-art, our bounds may lead to about 100 more stochastic gradient descent iterations for training deep learning models for the same privacy budget. In the second part, we establish a relationship between RDP and hypothesis test DP which allows us to translate the RDP constraint into a tradeoff between type I and type II error probabilities of a certain binary hypothesis test. We then demonstrate that for noisy SGD our result leads to tighter privacy guarantees compared to the recently proposed $f$-DP framework for some range of parameters. | 翻訳日:2022-10-30 17:01:52 公開日:2021-01-23 |
# matscie: 計算材料科学文献における手法とパラメータのデータベース生成のための自動化ツール MatScIE: An automated tool for the generation of databases of methods and parameters used in the computational materials science literature ( http://arxiv.org/abs/2009.06819v2 ) ライセンス: Link先を確認 | Souradip Guha, Ankan Mullick, Jatin Agrawal, Swetarekha Ram, Samir Ghui, Seung-Cheol Lee, Satadeep Bhattacharjee, Pawan Goyal | (参考訳) 材料科学の分野における論文の発行数は毎年急増している。
この比較的非構造化データソースは、大量の情報を含んでいるが、そのデータを用いてさらなる計算を行うために必要な情報は手動で抽出する必要があるため、その再利用性に制限がある。
オンライン(オフライン)データから有効かつ文脈的に正しい情報を取得することは非常に重要であり、さらなる計算のために入力を生成するだけでなく、クエリフレームワークに組み込むのにも有用である。
このコンテキストを優先として,物質科学文献から関連情報を抽出し,物質シミュレーションに利用しやすい構造化データベースを構築するための自動ツールであるMatScIE(Material Scince Information Exctor)を開発した。
具体的には,様々な研究論文から材料の詳細,方法,コード,パラメータ,構造を抽出する。
最後に、公開記事をアップロードし、このツールから得られた情報を閲覧/ダウンロードし、個人利用のために独自のデータベースを作成することができるウェブアプリケーションを作成しました。 The number of published articles in the field of materials science is growing rapidly every year. This comparatively unstructured data source, which contains a large amount of information, has a restriction on its re-usability, as the information needed to carry out further calculations using the data in it must be extracted manually. It is very important to obtain valid and contextually correct information from the online (offline) data, as it can be useful not only to generate inputs for further calculations, but also to incorporate them into a querying framework. Retaining this context as a priority, we have developed an automated tool, MatScIE (Material Scince Information Extractor) that can extract relevant information from material science literature and make a structured database that is much easier to use for material simulations. Specifically, we extract the material details, methods, code, parameters, and structure from the various research articles. Finally, we created a web application where users can upload published articles and view/download the information obtained from this tool and can create their own databases for their personal uses. | 翻訳日:2022-10-18 05:56:34 公開日:2021-01-23 |
# 自然変動下における深部ニューラルネットワークの局所ロバスト性理解 Understanding Local Robustness of Deep Neural Networks under Natural Variations ( http://arxiv.org/abs/2010.04821v2 ) ライセンス: Link先を確認 | Ziyuan Zhong, Yuchi Tian, Baishakhi Ray | (参考訳) Deep Neural Networks(DNN)は今日、自動運転のような安全クリティカルなアプリケーションから、画像分類を含む商用アプリケーションまで、幅広い環境で展開されている。
しかし、最近の研究では、DNNは入力データのわずかなばらつきにも弱いことが示されている。
そのため、DNNの厳格な試験が注目されている。
ノルム境界摂動下でのDNNのロバスト性は,ここ数年で注目されたが,入力画像の自然な変化が現れると,私たちの知識は限られている。
これらの自然変種(例えば、回転または元の入力の雨バージョン)は、特に、フィールドで活発な敵がいなく自然に起こる可能性があり、望ましくない結果をもたらす可能性があるため、関係している。
したがって、小さなバリエーションが誤ったDNN行動を引き起こす可能性のある入力を特定することが重要である。
しかし、自然変種下でのDNNの堅牢性に着目したごく少数の研究は、そのようなエラー発生点をローカライズするのではなく、全てのテストデータにわたってDNNの全体的な堅牢性を評価することに重点を置いている。
この仕事はこのギャップを埋めることを目的としている。
この目的のために,dnnの局所的な入力毎のロバスト性特性を調査し,それらの特性を利用してホワイトボックス(deeprobust-w)とブラックボックス(deeprobust-b)ツールを構築し,ロバストでない点を自動的に識別する。
3つの画像分類データセットにまたがる3つのDNNモデルを用いて,これらの手法の評価を行った。
特に、deeprobust-wとdeeprobust-bはそれぞれ91.4%と99.1%のf1スコアを達成できる。
さらに,DeepRobust-Wが他の領域の回帰問題に適用可能であることを示す。
3つの自動運転車モデルに対する評価は、DeepRobust-WがF1スコアが78.9%まで低いロバスト性点を特定するのに有効であることを示している。 Deep Neural Networks (DNNs) are being deployed in a wide range of settings today, from safety-critical applications like autonomous driving to commercial applications involving image classifications. However, recent research has shown that DNNs can be brittle to even slight variations of the input data. Therefore, rigorous testing of DNNs has gained widespread attention. While DNN robustness under norm-bound perturbation got significant attention over the past few years, our knowledge is still limited when natural variants of the input images come. These natural variants, e.g. a rotated or a rainy version of the original input, are especially concerning as they can occur naturally in the field without any active adversary and may lead to undesirable consequences. Thus, it is important to identify the inputs whose small variations may lead to erroneous DNN behaviors. The very few studies that looked at DNN's robustness under natural variants, however, focus on estimating the overall robustness of DNNs across all the test data rather than localizing such error-producing points. This work aims to bridge this gap. To this end, we study the local per-input robustness properties of the DNNs and leverage those properties to build a white-box (DeepRobust-W) and a black-box (DeepRobust-B) tool to automatically identify the non-robust points. Our evaluation of these methods on three DNN models spanning three widely used image classification datasets shows that they are effective in flagging points of poor robustness. In particular, DeepRobust-W and DeepRobust-B are able to achieve an F1 score of up to 91.4% and 99.1%, respectively. We further show that DeepRobust-W can be applied to a regression problem in another domain. Our evaluation on three self-driving car models demonstrates that DeepRobust-W is effective in identifying points of poor robustness with F1 score up to 78.9%. | 翻訳日:2022-10-09 04:14:09 公開日:2021-01-23 |
# 一部FC:1台のマシンで1000万のアイデンティティをトレーニング Partial FC: Training 10 Million Identities on a Single Machine ( http://arxiv.org/abs/2010.05222v2 ) ライセンス: Link先を確認 | Xiang An, Xuhan Zhu, Yang Xiao, Lan Wu, Ming Zhang, Yuan Gao, Bin Qin, Debing Zhang, Ying Fu | (参考訳) 顔認識は長い間、コンピュータビジョンコミュニティの中で活発で重要なトピックであった。
これまでの研究は主に顔特徴抽出ネットワークにおける損失関数に着目し、ソフトマックスによる損失関数の改善は顔認識の性能を大きく向上させた。
しかし、顔のアイデンティティの急増とGPUメモリ不足との矛盾は徐々に解消されつつある。
本稿では,softmaxに基づく損失関数の最適化目標と,膨大なidのトレーニングの難しさを徹底的に解析する。
顔表現学習におけるソフトマックス関数における負のクラスの重要性は、以前考えていたほど高くはない。
実験では,ソフトマックスに基づく損失関数に対して,ランダムにサンプリングしたクラスが10\%のトレーニングでは精度が低下しないことを示した。
また、モデル精度とトレーニング効率を考慮して、非常に効率的な分散サンプリングアルゴリズムを実装し、わずか8つのNVIDIA RTX2080Tiを使用して、数千万のIDで分類タスクを完了させる。
この論文のコードはhttps://github.com/deepinsight/insightface/tree/master/recognition/partial_fcで利用可能である。 Face recognition has been an active and vital topic among computer vision community for a long time. Previous researches mainly focus on loss functions used for facial feature extraction network, among which the improvements of softmax-based loss functions greatly promote the performance of face recognition. However, the contradiction between the drastically increasing number of face identities and the shortage of GPU memories is gradually becoming irreconcilable. In this paper, we thoroughly analyze the optimization goal of softmax-based loss functions and the difficulty of training massive identities. We find that the importance of negative classes in softmax function in face representation learning is not as high as we previously thought. The experiment demonstrates no loss of accuracy when training with only 10\% randomly sampled classes for the softmax-based loss functions, compared with training with full classes using state-of-the-art models on mainstream benchmarks. We also implement a very efficient distributed sampling algorithm, taking into account model accuracy and training efficiency, which uses only eight NVIDIA RTX2080Ti to complete classification tasks with tens of millions of identities. The code of this paper has been made available https://github.com/deepinsight/insightface/tree/master/recognition/partial_fc. | 翻訳日:2022-10-08 14:01:31 公開日:2021-01-23 |
# 「計測できないもの、理解できないもの」--公正を求めての復刻的データ調達への挑戦 "What We Can't Measure, We Can't Understand": Challenges to Demographic Data Procurement in the Pursuit of Fairness ( http://arxiv.org/abs/2011.02282v2 ) ライセンス: Link先を確認 | McKane Andrus, Elena Spitzer, Jeffrey Brown, Alice Xiang | (参考訳) 公平で偏りのないアルゴリズムシステムを求める声が高まるにつれて、産業におけるアルゴリズムの公平性に取り組む個人も増えている。
しかし、これらの実践者は、実際にバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
アルゴリズムの公平性に向けた様々なツールキットや戦略が成長しているにもかかわらず、人口統計学的属性やプロキシへのアクセスはほとんど必然的に必要である。
このジレンマを,アルゴリズムの公平性にかかわる38人の実践者および専門家との半構造化インタビューを通じて検討した。
参加者は、あらゆる種類の個人データにアクセスできないことから、差別評価のために人口統計データを収集し使用するために法的に要求されることまで、人口統計データの可用性と利用が地上でどのように見えるかという複雑な図を描いた。
多くの分野において、人口統計データ収集は、プライバシーと公正のバランスの方法、関連する社会的カテゴリーの定義方法、意味のある同意の確保方法、個人企業が誰かの人口統計を推測するのに適切かどうかなど、多くの難しい疑問を提起する。
我々の研究は、実践者が実際にアルゴリズムバイアスに対処できるように、企業、規制当局、研究者、コミュニティグループによって考慮されるべき課題を提案する。
批判的に、将来的な仕事の全体的な目標は、人口統計データを収集する障壁を単に低くすることではない。
むしろ、我々の研究は、どのように、いつ、そして、このデータが調達されるべきなのか、そして、そうでない場合、バイアスを軽減するためにまだ何をすべきなのか、という規範的な疑問を表面化しています。 As calls for fair and unbiased algorithmic systems increase, so too does the number of individuals working on algorithmic fairness in industry. However, these practitioners often do not have access to the demographic data they feel they need to detect bias in practice. Even with the growing variety of toolkits and strategies for working towards algorithmic fairness, they almost invariably require access to demographic attributes or proxies. We investigated this dilemma through semi-structured interviews with 38 practitioners and professionals either working in or adjacent to algorithmic fairness. Participants painted a complex picture of what demographic data availability and use look like on the ground, ranging from not having access to personal data of any kind to being legally required to collect and use demographic data for discrimination assessments. In many domains, demographic data collection raises a host of difficult questions, including how to balance privacy and fairness, how to define relevant social categories, how to ensure meaningful consent, and whether it is appropriate for private companies to infer someone's demographics. Our research suggests challenges that must be considered by businesses, regulators, researchers, and community groups in order to enable practitioners to address algorithmic bias in practice. Critically, we do not propose that the overall goal of future work should be to simply lower the barriers to collecting demographic data. Rather, our study surfaces a swath of normative questions about how, when, and whether this data should be procured, and, in cases where it is not, what should still be done to mitigate bias. | 翻訳日:2022-10-01 17:28:14 公開日:2021-01-23 |
# 1次元畳み込みニューラルネットワークと伝達学習を用いたxEV電池の電荷状態の推定 Estimating State of Charge for xEV batteries using 1D Convolutional Neural Networks and Transfer Learning ( http://arxiv.org/abs/2011.00841v2 ) ライセンス: Link先を確認 | Arnab Bhattacharjee, Ashu Verma, Sukumar Mishra, Tapan K Saha | (参考訳) 本稿では,電気自動車における1次元畳み込みニューラルネットワーク(CNN)に基づく電荷推定アルゴリズムを提案する。
CNNは2つのパブリックなバッテリデータセットを使用してトレーニングされている。
異なる種類の雑音がCNNモデルの推定能力に与える影響について検討した。
さらに, モデル訓練用と異なる化学特性の電池を用いた場合, 改良したアルゴリズムを一般化し, 許容精度で推定するために, 転送学習機構を提案する。
転送学習を用いることで,モデルが十分に学習でき,バッテリデータの量を大幅に削減できることがわかった。
提案手法は,推定精度,学習速度,一般化能力の点で良好である。 In this paper we propose a one-dimensional convolutional neural network (CNN)-based state of charge estimation algorithm for electric vehicles. The CNN is trained using two publicly available battery datasets. The influence of different types of noises on the estimation capabilities of the CNN model has been studied. Moreover, a transfer learning mechanism is proposed in order to make the developed algorithm generalize better and estimate with an acceptable accuracy when a battery with different chemical characteristics than the one used for training the model, is used. It has been observed that using transfer learning, the model can learn sufficiently well with significantly less amount of battery data. The proposed method fares well in terms of estimation accuracy, learning speed and generalization capability. | 翻訳日:2022-09-30 13:10:11 公開日:2021-01-23 |
# 隠れグラフを学習するための量子アルゴリズム Quantum algorithms for learning a hidden graph and beyond ( http://arxiv.org/abs/2011.08611v2 ) ライセンス: Link先を確認 | Ashley Montanaro and Changpeng Shao | (参考訳) 量子アルゴリズムを用いてオラクルによって提供される未知のグラフを学習する問題を考察する。
3つのクエリモデルを考える。
最初のモデル(ORクエリ)では、オラクルは頂点の特定の部分集合がエッジを含むかどうかを返します。
第2の「パリティクエリ」では、オラクルはサブセット内のエッジの数のパリティを返します。
第3のモデルでは、グラフに対応するグラフ状態のコピーが与えられます。
ORおよびパリティ問合せモデルにおける最良な古典的アルゴリズムの高速化を実現する量子アルゴリズムをグラフの族に与え、複雑性がパリティ問合せモデルに類似したグラフ状態モデルに量子アルゴリズムを与える。
いくつかのパラメータでは、スピードアップはパリティクエリモデルで指数関数化できる。
一方、グラフに何の約束もなく、orクエリモデルではスピードアップは不可能である。
私たちが使用する主なテクニックは、クエリ効率の高い量子アルゴリズムがbelovsによって与えられた組合せ群テスト問題を解決するための量子アルゴリズムです。
さらに, ambainisらによるアルゴリズムに基づいて, この問題に対する時間効率の良い量子アルゴリズムを提案する。
グループテスト問題の "gapped" バージョンに対する。
また、フーリエサンプリングと振幅増幅に基づく簡単な時間効率の量子アルゴリズムも提供し、ベロフスのアルゴリズムの最適複雑さにほぼ一致する正確な半値関数と多数値関数を学習する。 We study the problem of learning an unknown graph provided via an oracle using a quantum algorithm. We consider three query models. In the first model ("OR queries"), the oracle returns whether a given subset of the vertices contains any edges. In the second ("parity queries"), the oracle returns the parity of the number of edges in a subset. In the third model, we are given copies of the graph state corresponding to the graph. We give quantum algorithms that achieve speedups over the best possible classical algorithms in the OR and parity query models, for some families of graphs, and give quantum algorithms in the graph state model whose complexity is similar to the parity query model. For some parameter regimes, the speedups can be exponential in the parity query model. On the other hand, without any promise on the graph, no speedup is possible in the OR query model. A main technique we use is the quantum algorithm for solving the combinatorial group testing problem, for which a query-efficient quantum algorithm was given by Belovs. Here we additionally give a time-efficient quantum algorithm for this problem, based on the algorithm of Ambainis et al.\ for a "gapped" version of the group testing problem. We also give simple time-efficient quantum algorithms based on Fourier sampling and amplitude amplification for learning the exact-half and majority functions, which almost match the optimal complexity of Belovs' algorithms. | 翻訳日:2022-09-24 17:50:17 公開日:2021-01-23 |
# 斜め画像から建物を識別する奥行き向上型特徴ピラミッドネットワーク Depth-Enhanced Feature Pyramid Network for Occlusion-Aware Verification of Buildings from Oblique Images ( http://arxiv.org/abs/2011.13226v2 ) ライセンス: Link先を確認 | Qing Zhu and Shengzhi Huang and Han Hu and Haifeng Li and Min Chen and Ruofei Zhong | (参考訳) 都市環境における建物変化の検知が不可欠である。
nadirイメージのみを使用する既存の方法は、建物と他の地域との間のあいまいな特徴と閉塞の深刻な問題に苦しむ。
さらに, 都市環境の建物規模は様々であり, シングルスケールの特徴を用いた場合, 性能上の問題が発生する。
これらの課題を解決するため, 斜め画像から既存の建物2次元足跡の3次元検証にカラーデータと深度データを併用したファクトピラミッドネットワークを提案する。
まず、斜め画像の色データを、3次元メッシュモデルから描画された深度情報で豊かにする。
第二に、多彩な特徴を特徴ピラミッドネットワークに融合させ、色と深度データの両方を融合させる。
最後に,既存の建物における変化をラベル付けするための頑健な投票手順において,ナディル画像と斜め画像の両方からの多視点情報を用いる。
ISPRSベンチマークデータセットと深センデータセットの両方を用いて実験的に評価した結果,提案手法はリコール率と精度においてResNetとEfficientNetのネットワーク性能を5倍,2倍に向上させることがわかった。
提案手法は, 変更された建物すべてを検出することができ, パイプライン更新手順中に手動で確認する必要のある建物のみを検出できるので, 手動品質管理の要求を大幅に低減できる。
さらに、アブレーション研究は奥行きデータ、特徴ピラミッドモジュール、多視点投票戦略を用いることで、明確かつ進歩的な改善につながることを示唆している。 Detecting the changes of buildings in urban environments is essential. Existing methods that use only nadir images suffer from severe problems of ambiguous features and occlusions between buildings and other regions. Furthermore, buildings in urban environments vary significantly in scale, which leads to performance issues when using single-scale features. To solve these issues, this paper proposes a fused feature pyramid network, which utilizes both color and depth data for the 3D verification of existing buildings 2D footprints from oblique images. First, the color data of oblique images are enriched with the depth information rendered from 3D mesh models. Second, multiscale features are fused in the feature pyramid network to convolve both the color and depth data. Finally, multi-view information from both the nadir and oblique images is used in a robust voting procedure to label changes in existing buildings. Experimental evaluations using both the ISPRS benchmark datasets and Shenzhen datasets reveal that the proposed method outperforms the ResNet and EfficientNet networks by 5\% and 2\%, respectively, in terms of recall rate and precision. We demonstrate that the proposed method can successfully detect all changed buildings; therefore, only those marked as changed need to be manually checked during the pipeline updating procedure; this significantly reduces the manual quality control requirements. Moreover, ablation studies indicate that using depth data, feature pyramid modules, and multi-view voting strategies can lead to clear and progressive improvements. | 翻訳日:2022-09-20 09:06:44 公開日:2021-01-23 |
# (参考訳) FROCC:高速ランダムプロジェクションに基づくワンクラス分類 FROCC: Fast Random projection-based One-Class Classification ( http://arxiv.org/abs/2011.14317v2 ) ライセンス: CC BY 4.0 | Arindam Bhattacharya and Sumanth Varambally and Amitabha Bagchi and Srikanta Bedathur | (参考訳) 高速ランダム投影型一級分類(frocc)は,一級分類の非常に効率的な手法である。
本手法は, 単球から一様かつ独立に選択されたランダムな単位ベクトルの集合に投影し, データの分離に基づいて領域を束縛することで, トレーニングデータを変換するという単純なアイデアに基づいている。
FROCCはカーネルで自然に拡張できる。
理論的には、FROCCは安定でありバイアスが低いという意味でうまく一般化する。
FROCCは、SVMやOCCタスクのディープラーニングベースモデルを含む最先端ベンチマークのトレーニングとテスト時間の1.2-67.8倍のスピードアップで、最大3.1%のROCを実現している。 We present Fast Random projection-based One-Class Classification (FROCC), an extremely efficient method for one-class classification. Our method is based on a simple idea of transforming the training data by projecting it onto a set of random unit vectors that are chosen uniformly and independently from the unit sphere, and bounding the regions based on separation of the data. FROCC can be naturally extended with kernels. We theoretically prove that FROCC generalizes well in the sense that it is stable and has low bias. FROCC achieves up to 3.1 percent points better ROC, with 1.2--67.8x speedup in training and test times over a range of state-of-the-art benchmarks including the SVM and the deep learning based models for the OCC task. | 翻訳日:2021-06-07 12:49:15 公開日:2021-01-23 |
# 理論誘導型ハード制約予測(HCP):知識に基づくデータ駆動型科学機械学習手法 Theory-guided hard constraint projection (HCP): a knowledge-based data-driven scientific machine learning method ( http://arxiv.org/abs/2012.06148v2 ) ライセンス: Link先を確認 | Yuntian Chen, Dou Huang, Dongxiao Zhang, Junsheng Zeng, Nanzhe Wang, Haoran Zhang, and Jinyue Yan | (参考訳) 機械学習モデルは、多くの科学・工学分野で成功している。
しかし、モデルがドメイン知識と実験観測データを同時に利用するのは難しいままである。
エキスパートシステムで表現される知識ベースのシンボリックAIの応用は、モデルの表現力によって制限され、ニューラルネットワークで表現されるデータ駆動コネクショナリズムAIは、物理的なメカニズムに反する予測を生成する傾向にある。
ドメイン知識を観察と完全に統合し,事前情報とニューラルネットワークの強適合性を最大限に活用するために,理論誘導型ハード制約投影(hcp)を提案する。
このモデルは、制御方程式のような物理的制約を離散化によって容易に扱える形式に変換し、射影を通して厳しい制約最適化を実行する。
厳密な数学的証明に基づいて、理論誘導HCPは、モデル予測が制約パッチの物理的メカニズムに厳密に適合することを保証できる。
理論誘導HCPの性能は不均一な地下流れ問題に基づく実験により検証した。
厳密な制約の適用により、理論誘導ニューラルネットワークや物理情報ニューラルネットワークのような完全に接続されたニューラルネットワークやソフト制約モデルと比較して、理論誘導型HCPは少ないデータを必要とし、ノイズの多い観測に対して高い予測精度と強い堅牢性を達成する。 Machine learning models have been successfully used in many scientific and engineering fields. However, it remains difficult for a model to simultaneously utilize domain knowledge and experimental observation data. The application of knowledge-based symbolic AI represented by an expert system is limited by the expressive ability of the model, and data-driven connectionism AI represented by neural networks is prone to produce predictions that violate physical mechanisms. In order to fully integrate domain knowledge with observations, and make full use of the prior information and the strong fitting ability of neural networks, this study proposes theory-guided hard constraint projection (HCP). This model converts physical constraints, such as governing equations, into a form that is easy to handle through discretization, and then implements hard constraint optimization through projection. Based on rigorous mathematical proofs, theory-guided HCP can ensure that model predictions strictly conform to physical mechanisms in the constraint patch. The performance of the theory-guided HCP is verified by experiments based on the heterogeneous subsurface flow problem. Due to the application of hard constraints, compared with fully connected neural networks and soft constraint models, such as theory-guided neural networks and physics-informed neural networks, theory-guided HCP requires fewer data, and achieves higher prediction accuracy and stronger robustness to noisy observations. | 翻訳日:2021-05-11 03:11:42 公開日:2021-01-23 |
# 深層学習に基づく電気機械のキー性能指標の予測 Deep Learning-based Prediction of Key Performance Indicators for Electrical Machine ( http://arxiv.org/abs/2012.11299v2 ) ライセンス: Link先を確認 | Vivek Parekh, Dominik Flore, Sebastian Sch\"ops | (参考訳) 電気機械の設計は、最大トルク、臨界磁場強度、アクティブ部品のコスト、音響パワーなどのキーパフォーマンス指標(KPI)によって定量評価することができる。
一般に、クロスドメインツールチェーンは、与えられた入力パラメータを最大の設計空間で変更することにより、異なるドメインから全てのKPIを最適化するために使用される。
この最適化プロセスは、これらの決定的なKPIを得るために静磁有限要素シミュレーションを含む。
これにより、計算コストの高いリソースの可用性を考慮し、プロセス全体を膨大な時間を要する計算タスクにします。
本稿では,データ支援型深層学習メタモデルを用いて,電気機械のKPIを高速かつ高精度に予測し,全最適化プロセスの高速化と計算コストの削減を図る。
その焦点は、機械の幾何表現として機能する様々な入力データを分析することである。
すなわち、これらが電気機械の断面像であり、異なる位相に関する幾何学と、幾何学のスカラーパラメトリゼーションを伴う古典的方法の非常に一般的な記述を可能にする。
画像の解像度の影響を詳細に研究する。
その結果, 予測精度が高く, 最適化時間を最小限に抑える深層学習に基づくメタモデルの有効性が示された。
また,画像ベースアプローチの予測品質は,スカラーパラメータに基づく古典的手法に匹敵する可能性が示唆された。 The design of an electrical machine can be quantified and evaluated by Key Performance Indicators (KPIs) such as maximum torque, critical field strength, costs of active parts, sound power, etc. Generally, cross-domain tool-chains are used to optimize all the KPIs from different domains (multi-objective optimization) by varying the given input parameters in the largest possible design space. This optimization process involves magneto-static finite element simulation to obtain these decisive KPIs. It makes the whole process a vehemently time-consuming computational task that counts on the availability of resources with the involvement of high computational cost. In this paper, a data-aided, deep learning-based meta-model is employed to predict the KPIs of an electrical machine quickly and with high accuracy to accelerate the full optimization process and reduce its computational costs. The focus is on analyzing various forms of input data that serve as a geometry representation of the machine. Namely, these are the cross-section image of the electrical machine that allows a very general description of the geometry relating to different topologies and the classical way with scalar parametrization of geometry. The impact of the resolution of the image is studied in detail. The results show a high prediction accuracy and proof that the validity of a deep learning-based meta-model to minimize the optimization time. The results also indicate that the prediction quality of an image-based approach can be made comparable to the classical way based on scalar parameters. | 翻訳日:2021-05-03 02:52:32 公開日:2021-01-23 |
# (参考訳) 重み付きニューラルネットワークにおける対向ロバスト性の改善 Improving Adversarial Robustness in Weight-quantized Neural Networks ( http://arxiv.org/abs/2012.14965v2 ) ライセンス: CC BY 4.0 | Chang Song, Elias Fallon, Hai Li | (参考訳) 近年、ニューラルネットワークはより深く計算集約的になっています。
量子化は、ハードウェアプラットフォームにニューラルネットワークをデプロイし、性能を損なうことなく計算コストを削減するのに有用な技術である。
しかし、最近の研究では、完全な精度や量子化に関わらず、ニューラルネットワークモデルが敵の攻撃に弱いことが示されている。
本研究では,敵対的損失と量子化損失の両方を分析し,評価基準を導入する。
そこで本稿では,逆数と量子化損失を緩和する境界ベース再学習法を提案し,ホワイトボックス勾配に基づく逆数攻撃に対する非線形マッピング法を採用した。
本手法は,ブラックボックス攻撃とホワイトボックス攻撃の双方において,他のベースライン手法と比較して,量子化後の精度を向上できることを示す。
また, 対人訓練が量子化損失を被り, 他の訓練方法とうまく連携しないことを示す。 Neural networks are getting deeper and more computation-intensive nowadays. Quantization is a useful technique in deploying neural networks on hardware platforms and saving computation costs with negligible performance loss. However, recent research reveals that neural network models, no matter full-precision or quantized, are vulnerable to adversarial attacks. In this work, we analyze both adversarial and quantization losses and then introduce criteria to evaluate them. We propose a boundary-based retraining method to mitigate adversarial and quantization losses together and adopt a nonlinear mapping method to defend against white-box gradient-based adversarial attacks. The evaluations demonstrate that our method can better restore accuracy after quantization than other baseline methods on both black-box and white-box adversarial attacks. The results also show that adversarial training suffers quantization loss and does not cooperate well with other training methods. | 翻訳日:2021-04-18 21:54:24 公開日:2021-01-23 |
# 夜間生産車検出:PVDNデータセット Provident Vehicle Detection at Night: The PVDN Dataset ( http://arxiv.org/abs/2012.15376v2 ) ライセンス: Link先を確認 | Lars Ohnemus and Lukas Ewecker and Ebubekir Asan and Stefan Roos and Simon Isele and Jakob Ketterer and Leopold M\"uller and Sascha Saralajew | (参考訳) 先進的な運転支援システムでは、できるだけ早く来るべき車両に関する情報を得ることが不可欠である。
夜間は照明条件が悪いため特に難しい。
そのため、夜間にはすべての車両がヘッドランプを使用して視覚を改善し、安全な運転を確保する。
人間として私たちは、ヘッドランプによって引き起こされる光反射を検出することで、実際に車両が物理的に見えるようになる前に、直観的に対向車と仮定する。
本稿では,夜間の農村環境において,346場面のうち59746場面の灰色スケール画像を含む新しいデータセットを提案する。
これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。
これにはデータセット特性の詳細な分析が伴う。
これにより、我々は、直視されるずっと前に、それらが引き起こす光の反射に基づいて車両を検知する新しい方法の研究を可能にする、包括的な真実データを備えた、最初のオープンソースデータセットを提供する。
我々は、これは現在の先進的な運転支援システムと人間の行動との間のパフォーマンスのギャップをさらに縮めるための重要なステップだと考えています。 For advanced driver assistance systems, it is crucial to have information about oncoming vehicles as early as possible. At night, this task is especially difficult due to poor lighting conditions. For that, during nighttime, every vehicle uses headlamps to improve sight and therefore ensure safe driving. As humans, we intuitively assume oncoming vehicles before the vehicles are actually physically visible by detecting light reflections caused by their headlamps. In this paper, we present a novel dataset containing 59746 annotated grayscale images out of 346 different scenes in a rural environment at night. In these images, all oncoming vehicles, their corresponding light objects (e.g., headlamps), and their respective light reflections (e.g., light reflections on guardrails) are labeled. This is accompanied by an in-depth analysis of the dataset characteristics. With that, we are providing the first open-source dataset with comprehensive ground truth data to enable research into new methods of detecting oncoming vehicles based on the light reflections they cause, long before they are directly visible. We consider this as an essential step to further close the performance gap between current advanced driver assistance systems and human behavior. | 翻訳日:2021-04-17 17:09:13 公開日:2021-01-23 |
# spilloverアルゴリズム:オープン共有工場におけるマルチロボット生産計画のための分散協調手法 Spillover Algorithm: A Decentralized Coordination Approach for Multi-Robot Production Planning in Open Shared Factories ( http://arxiv.org/abs/2101.05700v2 ) ライセンス: Link先を確認 | Marin Lujak and Alberto Fern\'andez and Eva Onaindia | (参考訳) オープンで共有された製造工場は通常、効率的なシステム性能のために時間と空間のタスクに適切に割り当てられるべき限られた数のロボットを処分する。
特に,生産計画の動的容量化問題に対して,ロボットの製造に必要な製品量や位置を,所定の時間帯内で連続的に決定し,需要期間に関連付けて製品が予測・予約できるようなシーケンス独立的なセットアップコストで対処する。
オープンファクトリでは,ロボットの複数所有者と生産するアイテムの異なる所有者が,それぞれが自己関心と個々に合理的であると考えられる,分散化されたマルチエージェントの変種を考える。
従来の制約付きロットサイズ問題に対する既存のソリューションアプローチは、すべての参加者のプライベートでセンシティブな情報のグローバル知識を共有することを必要とする集中型厳密な手法であり、記述されたマルチエージェントコンテキストでは適用できない。
そこで本研究では,私的かつ機密性の高い情報を保護しつつ,本質的に分散化されたマルチエージェントシステム環境における決定を分散させることにより,このNPハード問題を解決するスルーオーバー効果に基づく,計算効率のよい分散化手法を提案する。
私たちの知る限りでは、本アルゴリズムは、本質的な分散環境における研究問題の解決のための最初の分散化アルゴリズムであり、生産資源や製品は、おそらく矛盾する目標を持つ複数の利害関係者によって所有されている。
効率性を示すため、Spilloverアルゴリズムは最先端の商用解法であるCPLEX 12.8に対してベンチマークされる。 Open and shared manufacturing factories typically dispose of a limited number of robots that should be properly allocated to tasks in time and space for an effective and efficient system performance. In particular, we deal with the dynamic capacitated production planning problem with sequence independent setup costs where quantities of products to manufacture and location of robots need to be determined at consecutive periods within a given time horizon and products can be anticipated or backordered related to the demand period. We consider a decentralized multi-agent variant of this problem in an open factory setting with multiple owners of robots as well as different owners of the items to be produced, both considered self-interested and individually rational. Existing solution approaches to the classic constrained lot-sizing problem are centralized exact methods that require sharing of global knowledge of all the participants' private and sensitive information and are not applicable in the described multi-agent context. Therefore, we propose a computationally efficient decentralized approach based on the spillover effect that solves this NP-hard problem by distributing decisions in an intrinsically decentralized multi-agent system environment while protecting private and sensitive information. To the best of our knowledge, this is the first decentralized algorithm for the solution of the studied problem in intrinsically decentralized environments where production resources and/or products are owned by multiple stakeholders with possibly conflicting objectives. To show its efficiency, the performance of the Spillover Algorithm is benchmarked against state-of-the-art commercial solver CPLEX 12.8. | 翻訳日:2021-03-29 00:47:11 公開日:2021-01-23 |
# (参考訳) メタラーニングを用いたショット対話状態追跡 Few Shot Dialogue State Tracking using Meta-learning ( http://arxiv.org/abs/2101.06779v2 ) ライセンス: CC0 1.0 | Saket Dingliwal, Bill Gao, Sanchit Agarwal, Chien-Wei Lin, Tagyoung Chung, Dilek Hakkani-Tur | (参考訳) 対話状態追跡(DST)は、ホテル、タクシー予約、観光情報など特定の目的のために設計された自動チャットボットベースのシステムの中核となるコンポーネントである。
このようなシステムを新しいドメインにデプロイする必要性が高まっているため、ゼロ/フェーショットDSTの問題を解決する必要がある。
リソース豊富なドメインから未知のドメインに、追加データの必要性を最小限に抑えて知識を移行する学習のトレンドが増えている。
本研究では,この伝達に対するメタ学習アルゴリズムのメリットについて検討し,dst問題に特有のメタ学習型d-reptileを提案する。
大規模な実験により、さまざまなドメイン、メソッド、ベースモデル、データセットにまたがる従来のアプローチに対するメリットの明確な証拠が得られ、低データ環境ではベースラインよりも大幅に(5~25%)改善されています。
提案するメタラーナーは基礎モデルに依存しないため,既存のDSTシステムはトレーニング戦略を用いて未知領域の性能を向上させることができる。 Dialogue State Tracking (DST) forms a core component of automated chatbot based systems designed for specific goals like hotel, taxi reservation, tourist information, etc. With the increasing need to deploy such systems in new domains, solving the problem of zero/few-shot DST has become necessary. There has been a rising trend for learning to transfer knowledge from resource-rich domains to unknown domains with minimal need for additional data. In this work, we explore the merits of meta-learning algorithms for this transfer and hence, propose a meta-learner D-REPTILE specific to the DST problem. With extensive experimentation, we provide clear evidence of benefits over conventional approaches across different domains, methods, base models, and datasets with significant (5-25%) improvement over the baseline in a low-data setting. Our proposed meta-learner is agnostic of the underlying model and hence any existing state-of-the-art DST system can improve its performance on unknown domains using our training strategy. | 翻訳日:2021-03-27 21:54:39 公開日:2021-01-23 |
# (参考訳) 多腕包帯における能動推論の実証評価 An empirical evaluation of active inference in multi-armed bandits ( http://arxiv.org/abs/2101.08699v2 ) ライセンス: CC BY 4.0 | Dimitrije Markovic, Hrvoje Stojic, Sarah Schwoebel, and Stefan J. Kiebel | (参考訳) 不確実性の下でのシーケンシャルな意思決定の重要な特徴は、エクスプロイト — 現在の知識に従って最善の行動を選択すること、他のアクションの価値に関する情報を探索することのバランスを取る必要があることである。
このトレードオフを捉えた古典的なタスクであるマルチアームバンディット問題は、多くの産業用途で有用なバンディットアルゴリズムを開発するための機械学習の手段として機能した。
人間と動物の行動を理解するための神経科学で最近開発されたシーケンシャルな意思決定のアプローチであるアクティブ推論フレームワークは、探索と探索のトレードオフを解決するための洗練された戦略によって区別される。
これにより、アクティブ推論は、既に確立されたbanditアルゴリズムのエキサイティングな代替手段となる。
ここでは、効率的でスケーラブルな近似能動推論アルゴリズムを導出し、最先端のバンディットアルゴリズムであるベイジアン上限値と楽観的なトンプソンサンプリングと比較する。
この比較は固定および動的切替バンディットの2種類のバンドイット問題に対して行われる。
我々の経験的評価は,本アルゴリズムが静止帯の効率的な長期的挙動を生まないことを示している。
しかし、より困難なスイッチングバンディット問題では、アクティブ推論は2つの最先端バンディットアルゴリズムよりもかなり優れている。
結果は、理論と応用機械学習のさらなる研究のためのエキサイティングな会場を開き、人間と動物の行動を研究するための一般的なフレームワークとして、アクティブ推論にさらなる信頼性を与えました。 A key feature of sequential decision making under uncertainty is a need to balance between exploiting--choosing the best action according to the current knowledge, and exploring--obtaining information about values of other actions. The multi-armed bandit problem, a classical task that captures this trade-off, served as a vehicle in machine learning for developing bandit algorithms that proved to be useful in numerous industrial applications. The active inference framework, an approach to sequential decision making recently developed in neuroscience for understanding human and animal behaviour, is distinguished by its sophisticated strategy for resolving the exploration-exploitation trade-off. This makes active inference an exciting alternative to already established bandit algorithms. Here we derive an efficient and scalable approximate active inference algorithm and compare it to two state-of-the-art bandit algorithms: Bayesian upper confidence bound and optimistic Thompson sampling. This comparison is done on two types of bandit problems: a stationary and a dynamic switching bandit. Our empirical evaluation shows that the active inference algorithm does not produce efficient long-term behaviour in stationary bandits. However, in the more challenging switching bandit problem active inference performs substantially better than the two state-of-the-art bandit algorithms. The results open exciting venues for further research in theoretical and applied machine learning, as well as lend additional credibility to active inference as a general framework for studying human and animal behaviour. | 翻訳日:2021-03-21 13:00:49 公開日:2021-01-23 |
# 三ガードフラグメントの有限モデル理論と関連する論理 Finite Model Theory of the Triguarded Fragment and Related Logics ( http://arxiv.org/abs/2101.08377v2 ) ライセンス: Link先を確認 | Emanuel Kiero\'nski and Sebastian Rudolph | (参考訳) Triguarded Fragment (TGF) は、一階述語論理の最も表現力に富んだ断片であり、その2変数とガードされた断片の両方を等しく仮定している。
TGF は有限モデル特性(モデルサイズに厳密な2倍指数境界を与える)を持ち、したがって有限満足度は N2ExpTime 完全であることが知られている満足度と一致することを示す。
同様の構成を用いると、遷移ガード付き固定自由(tri)ガードフラグメントの有限充足性に対する2ExpTime完全性も確立する。 The Triguarded Fragment (TGF) is among the most expressive decidable fragments of first-order logic, subsuming both its two-variable and guarded fragments without equality. We show that the TGF has the finite model property (providing a tight doubly exponential bound on the model size) and hence finite satisfiability coincides with satisfiability known to be N2ExpTime-complete. Using similar constructions, we also establish 2ExpTime-completeness for finite satisfiability of the constant-free (tri)guarded fragment with transitive guards. | 翻訳日:2021-03-21 07:49:32 公開日:2021-01-23 |
# (参考訳) 自己スーパービジョンに基づくオンライン対外浄化 Online Adversarial Purification based on Self-Supervision ( http://arxiv.org/abs/2101.09387v1 ) ライセンス: CC BY 4.0 | Changhao Shi, Chester Holtz and Gal Mishne | (参考訳) 深層ニューラルネットワークは、入力空間の摂動が潜伏ネットワーク表現の増幅シフトにつながる敵の例に弱いことが知られている。
本稿では,自己教師型学習と自己教師型表現学習を併用し,自己教師型オンライン適応浄化(SOAP:Self-supervised Online Adversarial Purification)を提案する。
本手法は,自己教師付き信号のラベル非依存性を活用し,自己教師付きタスクに対する敵対的摂動に対応する。
SOAPは、最先端の敵のトレーニングと浄化方法に対して、競争力のある堅牢な精度をもたらします。
また, 敵に浄化防衛戦略の知識が与えられても, 本手法は堅牢である。
我々の知る限りでは、オンラインテストタイムの浄化にセルフ教師付き信号を用いるというアイデアを一般化した最初の論文である。 Deep neural networks are known to be vulnerable to adversarial examples, where a perturbation in the input space leads to an amplified shift in the latent network representation. In this paper, we combine canonical supervised learning with self-supervised representation learning, and present Self-supervised Online Adversarial Purification (SOAP), a novel defense strategy that uses a self-supervised loss to purify adversarial examples at test-time. Our approach leverages the label-independent nature of self-supervised signals and counters the adversarial perturbation with respect to the self-supervised tasks. SOAP yields competitive robust accuracy against state-of-the-art adversarial training and purification methods, with considerably less training complexity. In addition, our approach is robust even when adversaries are given knowledge of the purification defense strategy. To the best of our knowledge, our paper is the first that generalizes the idea of using self-supervised signals to perform online test-time purification. | 翻訳日:2021-03-20 16:19:24 公開日:2021-01-23 |
# (参考訳) セットアップポリシーの学習: 移動行動間の信頼できる遷移 Learning Setup Policies: Reliable Transition Between Locomotion Behaviours ( http://arxiv.org/abs/2101.09391v1 ) ライセンス: CC BY 4.0 | Brendan Tidd, Nicolas Hudson, Akansel Cosgun, Jurgen Leitner | (参考訳) 多様地形上で動作する動的プラットフォームは、一般的に複数のコントローラを必要とするが、コントローラ間で安全に遷移するためには、隣接するコントローラ間で状態のオーバーラップが必要となる。
本研究では,事前学習した深層強化学習(DRL)ポリシー間の軌道を橋渡しする設定ポリシーの学習方法を開発した。
提案手法は,1つの政策が課題を学習できない,設定ポリシーなしで事前訓練された都市間を切り替える,困難なジャンプ地形を横断するシミュレートバイドで実証する。
我々は,システムの主要コンポーネントのアナレーションを行い,遷移方針を学習する他のコンポーネントよりも優れていることを示すとともに,複雑な地形の連続を横断するモジュール制御スイートの一部として,セットアップポリシーを使用できることを示す。
セットアップポリシーを用いることで、単一の難しいジャンプ地形を横断する成功率(セットアップポリシーなしでの1.5%成功率から82%)と、さまざまな地形(セットアップポリシーなしでの6.5%から29.1%)が向上することを示す。 Dynamic platforms that operate over manyunique terrain conditions typically require multiple controllers.To transition safely between controllers, there must be anoverlap of states between adjacent controllers. We developa novel method for training Setup Policies that bridge thetrajectories between pre-trained Deep Reinforcement Learning(DRL) policies. We demonstrate our method with a simulatedbiped traversing a difficult jump terrain, where a single policyfails to learn the task, and switching between pre-trainedpolicies without Setup Policies also fails. We perform anablation of key components of our system, and show thatour method outperforms others that learn transition policies.We demonstrate our method with several difficult and diverseterrain types, and show that we can use Setup Policies as partof a modular control suite to successfully traverse a sequence ofcomplex terrains. We show that using Setup Policies improvesthe success rate for traversing a single difficult jump terrain(from 1.5%success rate without Setup Policies to 82%), and asequence of various terrains (from 6.5%without Setup Policiesto 29.1%). | 翻訳日:2021-03-20 15:59:23 公開日:2021-01-23 |
# (参考訳) ブラインド画像復元のための適応スパース正規化 Adaptively Sparse Regularization for Blind Image Restoration ( http://arxiv.org/abs/2101.09401v1 ) ライセンス: CC BY 4.0 | Ningshan Xu | (参考訳) 画像品質は、画像コミュニケーションと理解タスクの基礎である。
撮像、伝送、その他のプロセスによるぼやけやノイズの影響により、画質が劣化する。
ブラインド画像復元は画像品質向上のために広く用いられており、主な目的は、ぼやけたカーネルと潜伏したシャープ画像とを忠実に推定することである。
本研究では,実験観測と研究に基づいて,適応的にスパースな正規化最小化法を提案する。
高次勾配は低次勾配と結合してハイブリッド正規化項を形成し、画像エントロピーから導出される適応作用素を導入して良好な収束を維持する。
異なるブラーカーネルと画像に対して大規模な実験を行った。
従来の最先端のブラインドデブロアリング法と比較して,本手法は回収精度に優れていた。 Image quality is the basis of image communication and understanding tasks. Due to the blur and noise effects caused by imaging, transmission and other processes, the image quality is degraded. Blind image restoration is widely used to improve image quality, where the main goal is to faithfully estimate the blur kernel and the latent sharp image. In this study, based on experimental observation and research, an adaptively sparse regularized minimization method is originally proposed. The high-order gradients combine with low-order ones to form a hybrid regularization term, and an adaptive operator derived from the image entropy is introduced to maintain a good convergence. Extensive experiments were conducted on different blur kernels and images. Compared with existing state-of-the-art blind deblurring methods, our method demonstrates superiority on the recovery accuracy. | 翻訳日:2021-03-20 15:44:03 公開日:2021-01-23 |
# (参考訳) 4d atlas:縦型3次元形状データにおける時空間変動の統計解析 4D Atlas: Statistical Analysis of the Spatiotemporal Variability in Longitudinal 3D Shape Data ( http://arxiv.org/abs/2101.09403v1 ) ライセンス: CC BY 4.0 | Hamid Laga, Marcel Padilla, Ian H. Jermyn, Sebastian Kurtek, Mohammed Bennamoun, Anuj Srivastava | (参考訳) 時間とともに進化・変形する被験者の観察を含む縦3次元形状データセットの時空間変動を学習するための新しい枠組みを提案する。
曲面は任意の空間的および時間的パラメータ化を持つため、この問題は難しい。
したがって、それらは空間的に登録され、時間的に互いにアライメントされる必要がある。
我々はこの時空間登録問題をリーマン的手法を用いて解く。
3次元表面を弾性計量を備えた形状空間の点として扱い、曲面が受ける曲げや伸びの量を測定する。
4d曲面は、この空間における軌道と見なすことができる。
この定式化により、4次元曲面の統計解析は、非線形リーマン多様体に埋め込まれた軌道の解析の問題となる。
しかし、非線形空間上の時空間登録と統計の計算は複雑な非線形最適化に依存する。
我々の中心的な貢献は、L2計量が曲面の空間における部分弾性計量と等価である正方根正規場(SRNF)の空間への曲面のマッピングである。
SRNF空間における空間登録を解くことにより、4次元曲面の解析は、ユークリッド空間であるSRNF空間に埋め込まれた軌道を解析する問題となる。
本稿では,そのような解析を可能にするビルディングブロックを開発する。
これには、大きな弾性変形やその実行率のばらつきが存在する場合でも任意にパラメータ化された4d表面の時空間的登録、4d表面間の測地線計算、変動の手段やモードといった統計要約の計算、ランダムな4d表面の合成などが含まれる。
4次元顔表面と4次元人体形状を用いて,提案フレームワークの性能を実証する。 We propose a novel framework to learn the spatiotemporal variability in longitudinal 3D shape data sets, which contain observations of subjects that evolve and deform over time. This problem is challenging since surfaces come with arbitrary spatial and temporal parameterizations. Thus, they need to be spatially registered and temporally aligned onto each other. We solve this spatiotemporal registration problem using a Riemannian approach. We treat a 3D surface as a point in a shape space equipped with an elastic metric that measures the amount of bending and stretching that the surfaces undergo. A 4D surface can then be seen as a trajectory in this space. With this formulation, the statistical analysis of 4D surfaces becomes the problem of analyzing trajectories embedded in a nonlinear Riemannian manifold. However, computing spatiotemporal registration and statistics on nonlinear spaces relies on complex nonlinear optimizations. Our core contribution is the mapping of the surfaces to the space of Square-Root Normal Fields (SRNF) where the L2 metric is equivalent to the partial elastic metric in the space of surfaces. By solving the spatial registration in the SRNF space, analyzing 4D surfaces becomes the problem of analyzing trajectories embedded in the SRNF space, which is Euclidean. Here, we develop the building blocks that enable such analysis. These include the spatiotemporal registration of arbitrarily parameterized 4D surfaces even in the presence of large elastic deformations and large variations in their execution rates, the computation of geodesics between 4D surfaces, the computation of statistical summaries, such as means and modes of variation, and the synthesis of random 4D surfaces. We demonstrate the performance of the proposed framework using 4D facial surfaces and 4D human body shapes. | 翻訳日:2021-03-20 15:36:59 公開日:2021-01-23 |
# (参考訳) 連続的結合強度予測のための機械学習手法 A Machine Learning Approach to Predicting Continuous Tie Strengths ( http://arxiv.org/abs/2101.09417v1 ) ライセンス: CC BY 4.0 | James Flamino, Ross DeVito, Boleslaw K. Szymanski, Omar Lizardo | (参考訳) 人々の関係は常に進化し、対人行動を変え、社会集団を定義する。
ソーシャルネットワーク内のノード間の関係は、しばしば調査によって実証的に評価される結合力によって表される。
これは関係の静的スナップショットを取るのに有効であるが、動的ネットワークへのスケーリングは困難である。
本稿では,時間とともに進化していく関係を連続的に近似するシステムを提案する。
我々は,ノートルダム大学の学生の4年間にわたる総合的なコミュニケーション記録を提供するNetSense研究を用いて,このシステムを評価する。
これらの記録はsemesterly ego network surveysによって補完され、各参加者の真の社会的つながりの強さの時間を通じて個別のサンプルを提供する。
我々は、これらの調査から学習し、通信記録を信号として解釈する、強力な機械学習モデル(過去の研究から抽出したベースライン群によって補完される)を開発した。
これらの信号は動的結合強度を表し、ソーシャルネットワーク内の個人間の関係の進化を正確に記録します。
これらの発展するタイ値によって、我々は過去の作品と比較した経験的に導出されたいくつかの観察をすることができる。 Relationships between people constantly evolve, altering interpersonal behavior and defining social groups. Relationships between nodes in social networks can be represented by a tie strength, often empirically assessed using surveys. While this is effective for taking static snapshots of relationships, such methods are difficult to scale to dynamic networks. In this paper, we propose a system that allows for the continuous approximation of relationships as they evolve over time. We evaluate this system using the NetSense study, which provides comprehensive communication records of students at the University of Notre Dame over the course of four years. These records are complemented by semesterly ego network surveys, which provide discrete samples over time of each participant's true social tie strength with others. We develop a pair of powerful machine learning models (complemented by a suite of baselines extracted from past works) that learn from these surveys to interpret the communications records as signals. These signals represent dynamic tie strengths, accurately recording the evolution of relationships between the individuals in our social networks. With these evolving tie values, we are able to make several empirically derived observations which we compare to past works. | 翻訳日:2021-03-20 15:06:13 公開日:2021-01-23 |
# (参考訳) 多人数対話からの埋め込みによるチームパフォーマンスの分析 Analyzing Team Performance with Embeddings from Multiparty Dialogues ( http://arxiv.org/abs/2101.09421v1 ) ライセンス: CC BY 4.0 | Ayesha Enayet and Gita Sukthankar | (参考訳) 優れたコミュニケーションは間違いなく効果的なチームワークの基礎です。
時間とともにチームは独自のコミュニケーションスタイルを開発し、人間が言語選択を同期する会話的現象であるエントレーメント(entrainment)をしばしば提示する。
本稿では,類似するコンフリクトスコアを持つチームがベクトル空間内に存在するような,多人数対話から学習した組込みによるチームパフォーマンス予測の問題について検討する。
埋め込みは,1)対話行為,2)感情極性,3)統語訓練の3種類の特徴から抽出された。
これらの機能はすべて、チームのパフォーマンスを効果的に予測するために使用できますが、そのユーティリティはチームワークフェーズによって異なります。
1)早期(知識建物)、2)中間(問題解決)、3)後期(彫刻)の対話を段階的に分割する。
構文的訓練とは異なり、対話行為と感情埋め込みは、初期の段階でもチームのパフォーマンスを分類するのに有効である。
この発見は、チーム形成を促進する会話エージェントの開発に潜在的な影響をもたらす。 Good communication is indubitably the foundation of effective teamwork. Over time teams develop their own communication styles and often exhibit entrainment, a conversational phenomena in which humans synchronize their linguistic choices. This paper examines the problem of predicting team performance from embeddings learned from multiparty dialogues such that teams with similar conflict scores lie close to one another in vector space. Embeddings were extracted from three types of features: 1) dialogue acts 2) sentiment polarity 3) syntactic entrainment. Although all of these features can be used to effectively predict team performance, their utility varies by the teamwork phase. We separate the dialogues of players playing a cooperative game into stages: 1) early (knowledge building) 2) middle (problem-solving) and 3) late (culmination). Unlike syntactic entrainment, both dialogue act and sentiment embeddings are effective for classifying team performance, even during the initial phase. This finding has potential ramifications for the development of conversational agents that facilitate teaming. | 翻訳日:2021-03-20 14:47:39 公開日:2021-01-23 |
# (参考訳) DFPとBFGSに基づく垂直連合学習 Vertical federated learning based on DFP and BFGS ( http://arxiv.org/abs/2101.09428v1 ) ライセンス: CC BY 4.0 | Song WenJie, Shen Xuan | (参考訳) データプライバシが人々によって徐々に重視される中、データ保護の可能性から、フェデレーション学習(FL)が出現している。
FLは、異なるデータプロバイダ間で暗号化情報を交換することで、分散機械学習を実現するために、データセキュリティを保証するという約束に基づいて、同型暗号化と差分プライバシー暗号化を使用する。
しかし、クライアントとサーバ間の通信効率やデータが非iidであるなど、flには依然として多くの問題がある。
上記の2つの問題を解決するために,dfp と bfgs (bdfl) に基づく新しい垂直フェデレーション学習フレームワークを提案し,ロジスティック回帰に適用する。
最後に、実データセットを用いてBDFLフレームワークの効率性をテストする。 As data privacy is gradually valued by people, federated learning(FL) has emerged because of its potential to protect data. FL uses homomorphic encryption and differential privacy encryption on the promise of ensuring data security to realize distributed machine learning by exchanging encrypted information between different data providers. However, there are still many problems in FL, such as the communication efficiency between the client and the server and the data is non-iid. In order to solve the two problems mentioned above, we propose a novel vertical federated learning framework based on the DFP and the BFGS(denoted as BDFL), then apply it to logistic regression. Finally, we perform experiments using real datasets to test efficiency of BDFL framework. | 翻訳日:2021-03-20 14:36:39 公開日:2021-01-23 |
# (参考訳) 説明可能な人工知能アプローチ:調査 Explainable Artificial Intelligence Approaches: A Survey ( http://arxiv.org/abs/2101.09429v1 ) ライセンス: CC BY 4.0 | Sheikh Rabiul Islam, William Eberle, Sheikh Khaled Ghafoor, Mohiuddin Ahmed | (参考訳) 人工知能(AI)ベースの「ブラックボックス」システム/モデルからの決定可能性の欠如は、現実の多くのアプリケーションにおいて優位性にもかかわらず、異なるドメインや産業の多くの高利害なアプリケーションでAIを採用する上で重要な障害である。
多くの人気のある Explainable Artificial Intelligence (XAI) の手法やアプローチは、人間に親しみやすい決定の説明を促進するために利用できるが、それぞれに独自のメリットとデメリットがあり、多くのオープンな課題がある。
我々は、相互ケーススタディ/タスク(クレジットデフォルト予測)で人気のあるXAI手法を実証し、複数の視点(ローカル、グローバルなど)から競争上の優位性を分析し、説明可能性の定量化に関する有意義な洞察を提供し、XAIを媒体として、責任や人間中心のAIへの道を推奨する。
実践者は、この作品をカタログとして使用して、人気のあるXAI手法の競争上の優位性を理解し、比較し、相関付けすることができる。
さらに、この調査では、責任や人間中心のAIシステムに対する今後の研究の方向性が示されています。 The lack of explainability of a decision from an Artificial Intelligence (AI) based "black box" system/model, despite its superiority in many real-world applications, is a key stumbling block for adopting AI in many high stakes applications of different domain or industry. While many popular Explainable Artificial Intelligence (XAI) methods or approaches are available to facilitate a human-friendly explanation of the decision, each has its own merits and demerits, with a plethora of open challenges. We demonstrate popular XAI methods with a mutual case study/task (i.e., credit default prediction), analyze for competitive advantages from multiple perspectives (e.g., local, global), provide meaningful insight on quantifying explainability, and recommend paths towards responsible or human-centered AI using XAI as a medium. Practitioners can use this work as a catalog to understand, compare, and correlate competitive advantages of popular XAI methods. In addition, this survey elicits future research directions towards responsible or human-centric AI systems, which is crucial to adopt AI in high stakes applications. | 翻訳日:2021-03-20 14:24:27 公開日:2021-01-23 |
# (参考訳) 遠隔医療支援のためのプレッシャ潰瘍ケアシステム:創部領域分割に基づく注意モデルを用いた残留U-Net A Pressure Ulcer Care System For Remote Medical Assistance: Residual U-Net with an Attention Model Based for Wound Area Segmentation ( http://arxiv.org/abs/2101.09433v1 ) ライセンス: CC BY 4.0 | Jinyeong Chae, Ki Yong Hong, Jihie Kim | (参考訳) 障害のある患者や移動障害のある高齢者の増加は、しばしば圧力潰瘍に苦しむ。
被害地域は定期的な検査が必要だが、病院へのアクセスが困難である。
遠隔診断システムもいくつか使用されているが,患者の状態の定期的な確認には限界がある。
本稿では,画像処理技術を用いて潰瘍管理を支援する遠隔医療アシスタントを提案する。
提案システムは,創傷分類と解析のための深層学習モデルを備えたモバイルアプリケーションを含む。
ディープラーニングモデルをトレーニングするのに十分なデータがないので、関連するドメインから事前訓練されたモデルと、このタスクに適したデータ拡張を利用します。
まず、双線形補間を用いた画像前処理法を用いて画像の縮小と正規化を行う。
第二に、データ拡張には回転、反射、流域アルゴリズムを用いる。
第3に,感圧潰瘍画像と同様の皮膚創傷画像から,事前訓練した深層学習モデルを用いた。
最後に,圧力潰瘍画像の特徴のヒントを提供するアテンションモジュールを追加した。
その結果、99.0%の精度、99.99%の結合(IoU)、93.4%のサイス類似係数(DSC)が得られた。 Increasing numbers of patients with disabilities or elderly people with mobility issues often suffer from a pressure ulcer. The affected areas need regular checks, but they have a difficulty in accessing a hospital. Some remote diagnosis systems are being used for them, but there are limitations in checking a patient's status regularly. In this paper, we present a remote medical assistant that can help pressure ulcer management with image processing techniques. The proposed system includes a mobile application with a deep learning model for wound segmentation and analysis. As there are not enough data to train the deep learning model, we make use of a pretrained model from a relevant domain and data augmentation that is appropriate for this task. First of all, an image preprocessing method using bilinear interpolation is used to resize images and normalize the images. Second, for data augmentation, we use rotation, reflection, and a watershed algorithm. Third, we use a pretrained deep learning model generated from skin wound images similar to pressure ulcer images. Finally, we added an attention module that can provide hints on the pressure ulcer image features. The resulting model provides an accuracy of 99.0%, an intersection over union (IoU) of 99.99%, and a dice similarity coefficient (DSC) of 93.4% for pressure ulcer segmentation, which is better than existing results. | 翻訳日:2021-03-20 13:57:27 公開日:2021-01-23 |
# (参考訳) 再現性、再現性およびそれ以上性:野生動物におけるアスペクトベース感情分析の生産準備性の評価 Reproducibility, Replicability and Beyond: Assessing Production Readiness of Aspect Based Sentiment Analysis in the Wild ( http://arxiv.org/abs/2101.09449v1 ) ライセンス: CC BY 4.0 | Rajdeep Mukherjee, Shreyas Shetty, Subrata Chattopadhyay, Subhadeep Maji, Samik Datta and Pawan Goyal | (参考訳) オンラインマーケットプレースとユーザー生成コンテンツの増加に伴い、アスペクトベースの感情分析はこれまで以上に重要になっている。
本研究では,過去6年間に公開されたモデルの代表的なサンプルを,実運用環境での展開に目を向けて,実践者のレンズを通して批判的にレビューする。
まず、厳密な経験的評価により再現性が低いことが明らかとなり、サンプル全体で平均4-5%の検定精度が低下した。
第2に,経験的評価の信頼性をさらに高めるため,2つの挑戦的なデータスライスの実験を報告し,一貫性のある12~55%の精度低下を観測した。
第3に、ドメイン間の転送の可能性を調査し、同じローカライズ内の他のドメインからのデータセットと組み合わせて使用する場合、ドメイン固有のトレーニングデータセットの10~25%程度は、完全にクロスドメインと完全なドメイン内予測パフォーマンスのギャップを埋める。
最後に、インドの大規模なeコマースポータルから2つの大規模なアノテートレビューコーパスをオープンソース化し、複製性と転送の研究を支援し、この分野のさらなる成長を促進することを期待している。 With the exponential growth of online marketplaces and user-generated content therein, aspect-based sentiment analysis has become more important than ever. In this work, we critically review a representative sample of the models published during the past six years through the lens of a practitioner, with an eye towards deployment in production. First, our rigorous empirical evaluation reveals poor reproducibility: an average 4-5% drop in test accuracy across the sample. Second, to further bolster our confidence in empirical evaluation, we report experiments on two challenging data slices, and observe a consistent 12-55% drop in accuracy. Third, we study the possibility of transfer across domains and observe that as little as 10-25% of the domain-specific training dataset, when used in conjunction with datasets from other domains within the same locale, largely closes the gap between complete cross-domain and complete in-domain predictive performance. Lastly, we open-source two large-scale annotated review corpora from a large e-commerce portal in India in order to aid the study of replicability and transfer, with the hope that it will fuel further growth of the field. | 翻訳日:2021-03-20 13:50:06 公開日:2021-01-23 |
# (参考訳) 効率的なメッセージパッシング機構を用いたニューラルリレーショナル推論 Neural Relational Inference with Efficient Message Passing Mechanisms ( http://arxiv.org/abs/2101.09486v1 ) ライセンス: CC BY 4.0 | Siyuan Chen and Jiahai Wang and Guoqing Li | (参考訳) 多くの複雑なプロセスは相互作用するエージェントの力学系と見なすことができる。
多くの場合、個々のエージェントの状態列のみが観察されるが、相互作用する関係と動的規則は未知である。
ニューラルリレーショナル推論(NRI)モデルは、潜在グラフにメッセージを渡すグラフニューラルネットワークを採用し、観測データに基づいて関係とダイナミクスを共同で学習する。
しかし、NRIは独立して関係を推測し、動的学習過程における多段階予測における誤差蓄積に悩まされる。
さらに、より複雑なシステムでは、事前知識のない関係再構築が困難になる。
本稿では,これらの問題に対処するための構造的事前知識を持つグラフニューラルネットワークに,効率的なメッセージパッシング機構を導入する。
全ての関係の共存を捉えるための関係相互作用機構が提案され、履歴情報を用いてエラーの蓄積を緩和する時空間メッセージパッシング機構が提案されている。
さらに、構造的事前知識(特別の場合として対称性)は、より複雑なシステムにおけるより良い関係予測のために導入された。
シミュレーション物理システムの実験結果から,提案手法は既存の最先端手法よりも優れていることがわかった。 Many complex processes can be viewed as dynamical systems of interacting agents. In many cases, only the state sequences of individual agents are observed, while the interacting relations and the dynamical rules are unknown. The neural relational inference (NRI) model adopts graph neural networks that pass messages over a latent graph to jointly learn the relations and the dynamics based on the observed data. However, NRI infers the relations independently and suffers from error accumulation in multi-step prediction at dynamics learning procedure. Besides, relation reconstruction without prior knowledge becomes more difficult in more complex systems. This paper introduces efficient message passing mechanisms to the graph neural networks with structural prior knowledge to address these problems. A relation interaction mechanism is proposed to capture the coexistence of all relations, and a spatio-temporal message passing mechanism is proposed to use historical information to alleviate error accumulation. Additionally, the structural prior knowledge, symmetry as a special case, is introduced for better relation prediction in more complex systems. The experimental results on simulated physics systems show that the proposed method outperforms existing state-of-the-art methods. | 翻訳日:2021-03-20 13:21:34 公開日:2021-01-23 |
# (参考訳) オフショアウィンドファームにおける安全で回復力のある自律ロボットのための共生システム設計 Symbiotic System Design for Safe and Resilient Autonomous Robotics in Offshore Wind Farms ( http://arxiv.org/abs/2101.09491v1 ) ライセンス: CC BY 4.0 | Daniel Mitchell, Osama Zaki, Jamie Blanche, Joshua Roe, Leo Kong, Samuel Harper, Valentin Robu, Theodore Lim, David Flynn | (参考訳) オフショア・ウィンドファームの運用・保守(O&M)コストを削減するため、O&Mコストの80%は人員の配置に関連しており、オフショア・ウィンドセクターはソリューションのためのロボティクスと人工知能(AI)に注目している。
BVLOS(Beyond Visual Line of Sight)ロボットへの障壁には、運用上の安全コンプライアンスとレジリエンスが含まれており、オフショアでの自動運転サービスの商用化を阻害している。
安全とレジリエンスの課題に対処するために,ロボットプラットフォームと遠隔操作者の相互獲得のための知識共有とライフサイクル学習と共進化を反映した共生システムを提案する。
本手法は,自律ミッションにおける安全性,信頼性,レジリエンスのリアルタイム検証を可能にする。
ロボット,環境,インフラのディジタルモデルを同期させ,遠隔操作者への自律的な適応ミッション計画と状況報告のためのフロントエンド分析と双方向通信を統合する。
このロボットの信頼性オントロジーは,我々の全体的階層関係モデルに基づいて,計算効率のよいプラットフォームデータ解析を支援する。
ロボット内の重要なサブシステムのミッションステータスと診断を分析し、実行時の信頼性オントロジーを自動的に更新し、ミッション中に障害を失敗モードに変換して意思決定できるようにする。
拘束空間内での資産検査ミッションを実演し、ミリ波センシングを用いて状況認識を高め、不明瞭な人員の存在を検知してリスクを軽減する。
本研究は,BVLOSミッションに対して,共生システムによりレジリエンスが向上することを示す。
共生システムは、自律的なミッション目標の運用上の課題と優先順位付けに対処する。
これにより、完全に信頼できる自律システムを実現するために必要な技術が進歩する。 To reduce Operation and Maintenance (O&M) costs on offshore wind farms, wherein 80% of the O&M cost relates to deploying personnel, the offshore wind sector looks to robotics and Artificial Intelligence (AI) for solutions. Barriers to Beyond Visual Line of Sight (BVLOS) robotics include operational safety compliance and resilience, inhibiting the commercialization of autonomous services offshore. To address safety and resilience challenges we propose a symbiotic system; reflecting the lifecycle learning and co-evolution with knowledge sharing for mutual gain of robotic platforms and remote human operators. Our methodology enables the run-time verification of safety, reliability and resilience during autonomous missions. We synchronize digital models of the robot, environment and infrastructure and integrate front-end analytics and bidirectional communication for autonomous adaptive mission planning and situation reporting to a remote operator. A reliability ontology for the deployed robot, based on our holistic hierarchical-relational model, supports computationally efficient platform data analysis. We analyze the mission status and diagnostics of critical sub-systems within the robot to provide automatic updates to our run-time reliability ontology, enabling faults to be translated into failure modes for decision making during the mission. We demonstrate an asset inspection mission within a confined space and employ millimeter-wave sensing to enhance situational awareness to detect the presence of obscured personnel to mitigate risk. Our results demonstrate a symbiotic system provides an enhanced resilience capability to BVLOS missions. A symbiotic system addresses the operational challenges and reprioritization of autonomous mission objectives. This advances the technology required to achieve fully trustworthy autonomous systems. | 翻訳日:2021-03-20 13:02:40 公開日:2021-01-23 |
# (参考訳) debiasing pre-trained contextized embeddeds Debiasing Pre-trained Contextualised Embeddings ( http://arxiv.org/abs/2101.09523v1 ) ライセンス: CC BY 4.0 | Masahiro Kaneko and Danushka Bollegala | (参考訳) 静的な非コンテクチュアルな単語埋め込みに対して提案された多くのデバイアス法と比較して、文脈的埋め込みにおける識別バイアスは比較的ほとんど注目されていない。
本稿では,事前学習された文脈的埋め込みに対してトークンレベルや文レベルで適用可能な微調整手法を提案する。
提案手法は,事前学習した文脈埋め込みモデルに対して,それらのモデルを再学習することなく適用することができる。
ジェンダーバイアスを例示として,複数のベンチマークデータセット上でsof(state-of-the-art)コンテクスト化表現を用いた体系的な研究を行い,提案手法を用いたデバイアスの前後における異なるコンテクスト化埋め込みで符号化されるバイアスのレベルを評価する。
すべてのトークンとコンテキスト化された埋め込みモデルのすべてのレイヤにトークンレベルのデバイアスを適用すると、最高のパフォーマンスが得られます。
興味深いことに、正確なコンテキスト型埋め込みモデルの作成と、異なるコンテキスト型埋め込みモデルの作成の間にはトレードオフがある。 In comparison to the numerous debiasing methods proposed for the static non-contextualised word embeddings, the discriminative biases in contextualised embeddings have received relatively little attention. We propose a fine-tuning method that can be applied at token- or sentence-levels to debias pre-trained contextualised embeddings. Our proposed method can be applied to any pre-trained contextualised embedding model, without requiring to retrain those models. Using gender bias as an illustrative example, we then conduct a systematic study using several state-of-the-art (SoTA) contextualised representations on multiple benchmark datasets to evaluate the level of biases encoded in different contextualised embeddings before and after debiasing using the proposed method. We find that applying token-level debiasing for all tokens and across all layers of a contextualised embedding model produces the best performance. Interestingly, we observe that there is a trade-off between creating an accurate vs. unbiased contextualised embedding model, and different contextualised embedding models respond differently to this trade-off. | 翻訳日:2021-03-20 12:21:34 公開日:2021-01-23 |
# (参考訳) 辞書による事前学習語埋め込みの劣化 Dictionary-based Debiasing of Pre-trained Word Embeddings ( http://arxiv.org/abs/2101.09525v1 ) ライセンス: CC BY 4.0 | Masahiro Kaneko and Danushka Bollegala | (参考訳) 大きなコーパスで訓練された単語埋め込みは、高いレベルの不公平な差別性、人種、宗教的、民族的偏見を符号化している。
対照的に、人間による辞書は、簡潔で客観的で偏見のない方法で単語の意味を記述する。
本稿では,辞書を用いて事前学習した単語埋め込みを,元のトレーニングリソースへのアクセスや使用する単語埋め込みアルゴリズムに関する知識を必要とせずに,嫌悪する手法を提案する。
先行研究とは異なり,提案手法では単語リストの形で事前に定義するバイアスのタイプを必要とせず,単語の辞書定義から単語埋め込みの偏りが自動的に満たさなければならない制約を学習する。
具体的には、(a)事前学習された単語埋め込みのセマンティクスを保持するように、入力単語埋め込みのバイアス付きバージョンを生成するエンコーダを学習し、(b)辞書に従って単語のバイアスなし定義と一致し、(c)事前学習された単語埋め込み空間のバイアス付き基底ベクトルにまたがるベクトル空間に直交する。
標準ベンチマークデータセットにおける実験結果から,提案手法は,事前学習された単語埋め込みで符号化された不公平なバイアスを,有用なセマンティクスを保ちながら正確に除去できることがわかった。 Word embeddings trained on large corpora have shown to encode high levels of unfair discriminatory gender, racial, religious and ethnic biases. In contrast, human-written dictionaries describe the meanings of words in a concise, objective and an unbiased manner. We propose a method for debiasing pre-trained word embeddings using dictionaries, without requiring access to the original training resources or any knowledge regarding the word embedding algorithms used. Unlike prior work, our proposed method does not require the types of biases to be pre-defined in the form of word lists, and learns the constraints that must be satisfied by unbiased word embeddings automatically from dictionary definitions of the words. Specifically, we learn an encoder to generate a debiased version of an input word embedding such that it (a) retains the semantics of the pre-trained word embeddings, (b) agrees with the unbiased definition of the word according to the dictionary, and (c) remains orthogonal to the vector space spanned by any biased basis vectors in the pre-trained word embedding space. Experimental results on standard benchmark datasets show that the proposed method can accurately remove unfair biases encoded in pre-trained word embeddings, while preserving useful semantics. | 翻訳日:2021-03-20 12:01:57 公開日:2021-01-23 |
# (参考訳) LudiiとPolygamesを用いた汎用ゲームのための深層学習 Deep Learning for General Game Playing with Ludii and Polygames ( http://arxiv.org/abs/2101.09562v1 ) ライセンス: CC BY 4.0 | Dennis J. N. J. Soemers, Vegard Mella, Cameron Browne, Olivier Teytaud | (参考訳) モンテカルロ木探索とディープニューラルネットワークの組み合わせは、多くのボードゲームにおける自動ゲームプレイのための最先端の結果を生み出している。
トレーニングと検索のアルゴリズムはゲーム固有のものではないが、これらのアプローチが適用される個々のゲームには、ゲームのルールの実装やニューラルネットワークのアーキテクチャ、特に入力と出力のテンソルの形状に関するドメイン知識がまだ必要である。
ludiiは、すでに500以上のゲームがある汎用ゲームシステムであり、強力なユーザーフレンドリーなゲーム記述言語のおかげで急速に成長することができる。
polygamesはトレーニングと検索アルゴリズムを備えたフレームワークで、すでにいくつかのボードゲームでスーパーヒューマンプレイヤーを制作している。
本稿では,LudiiとPolygamesのブリッジの実装について述べる。
代わりに、ludiiシステムとその抽象状態に関する我々のドメイン知識を活用し、ludiiで実装されたゲームに対して、入力および出力テンソルの適切な形状を自動的に決定できる関数を記述するために表現を移動します。
各種ボードゲームにおけるショートトレーニングの実行実験結果について述べるとともに,今後の研究への課題と道筋について述べる。 Combinations of Monte-Carlo tree search and Deep Neural Networks, trained through self-play, have produced state-of-the-art results for automated game-playing in many board games. The training and search algorithms are not game-specific, but every individual game that these approaches are applied to still requires domain knowledge for the implementation of the game's rules, and constructing the neural network's architecture -- in particular the shapes of its input and output tensors. Ludii is a general game system that already contains over 500 different games, which can rapidly grow thanks to its powerful and user-friendly game description language. Polygames is a framework with training and search algorithms, which has already produced superhuman players for several board games. This paper describes the implementation of a bridge between Ludii and Polygames, which enables Polygames to train and evaluate models for games that are implemented and run through Ludii. We do not require any game-specific domain knowledge anymore, and instead leverage our domain knowledge of the Ludii system and its abstract state and move representations to write functions that can automatically determine the appropriate shapes for input and output tensors for any game implemented in Ludii. We describe experimental results for short training runs in a wide variety of different board games, and discuss several open problems and avenues for future research. | 翻訳日:2021-03-20 11:38:15 公開日:2021-01-23 |
# (参考訳) ジェネレーティブ・ディバイサル・ネットワークを用いた法定CNNへのトランスファー可能な反法定攻撃 A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative Adversarial Network ( http://arxiv.org/abs/2101.09568v1 ) ライセンス: CC BY 4.0 | Xinwei Zhao, Chen Chen, Matthew C. Stamm | (参考訳) 深層学習の発展に伴い、画像偽造の検出や識別といったタスクのマルチメディア法医学において、畳み込みニューラルネットワーク(CNN)が広く使われている。
一方、CNNベースの法医学アルゴリズムを騙すために、反法医学的攻撃が開発されている。
以前の反forensic攻撃は、操作のセットとは対照的に、単一の操作操作で残る偽造の痕跡を取り除くよう設計されていた。
さらに、近年の研究では、既存の法医学的cnnに対する反フォレンス攻撃は、転送能力に乏しいことが示されている。
訓練中に明示的に使用されなかった他の法医学的CNNを騙すことはできない。
本稿では,様々な操作操作が残した法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。
この攻撃は転送可能である。
それは、攻撃者にとって未知の法医学的なcnnを攻撃するために使用され、人間の目には知覚できない最小限の歪みだけをもたらす。
提案攻撃はGAN(Generative Adversarial Network)を用いて,任意のサイズのカラー画像に攻撃できるジェネレータを構築する。
我々は,新たな訓練戦略と損失関数を用いて攻撃伝達性を実現する。
我々は、我々の攻撃が攻撃者に利用可能な様々なレベルの知識を持つ多くの最先端のCNNを騙すことができることを示すための広範な実験を行う。 With the development of deep learning, convolutional neural networks (CNNs) have become widely used in multimedia forensics for tasks such as detecting and identifying image forgeries. Meanwhile, anti-forensic attacks have been developed to fool these CNN-based forensic algorithms. Previous anti-forensic attacks often were designed to remove forgery traces left by a single manipulation operation as opposed to a set of manipulations. Additionally, recent research has shown that existing anti-forensic attacks against forensic CNNs have poor transferability, i.e. they are unable to fool other forensic CNNs that were not explicitly used during training. In this paper, we propose a new anti-forensic attack framework designed to remove forensic traces left by a variety of manipulation operations. This attack is transferable, i.e. it can be used to attack forensic CNNs are unknown to the attacker, and it introduces only minimal distortions that are imperceptible to human eyes. Our proposed attack utilizes a generative adversarial network (GAN) to build a generator that can attack color images of any size. We achieve attack transferability through the use of a new training strategy and loss function. We conduct extensive experiment to demonstrate that our attack can fool many state-of-art forensic CNNs with varying levels of knowledge available to the attacker. | 翻訳日:2021-03-20 11:21:24 公開日:2021-01-23 |
# (参考訳) トップスクールの生徒は教授にもっと批判的か?
RateMyProfessor.comのマイニングコメント Are Top School Students More Critical of Their Professors? Mining Comments on RateMyProfessor.com ( http://arxiv.org/abs/2101.12339v1 ) ライセンス: CC BY 4.0 | Ziqi Tang, Yutong Wang, Jiebo Luo | (参考訳) RateMyProfessor.comの学生レビューとコメントは、学生の現実的な学習経験を反映している。
このような情報は、講師の教育的品質を調べるための大規模なデータソースを提供する。
本稿では,これらのコメントの詳細な分析を提案する。
まず、データを異なる比較グループに分割する。
次に,探索的データ解析を行い,そのデータを探索する。
さらに,潜在ディリクレ割当と感情分析を用いて話題を抽出し,コメントに関連付けられた感情を理解する。
大学生と教授の双方の特徴に関する興味深い知見を明らかにする。
本研究は,学生のレビューやコメントに重要な情報が含まれており,授業や大学への入学に欠かせない参考文献として利用できることを実証する。 Student reviews and comments on RateMyProfessor.com reflect realistic learning experiences of students. Such information provides a large-scale data source to examine the teaching quality of the lecturers. In this paper, we propose an in-depth analysis of these comments. First, we partition our data into different comparison groups. Next, we perform exploratory data analysis to delve into the data. Furthermore, we employ Latent Dirichlet Allocation and sentiment analysis to extract topics and understand the sentiments associated with the comments. We uncover interesting insights about the characteristics of both college students and professors. Our study proves that student reviews and comments contain crucial information and can serve as essential references for enrollment in courses and universities. | 翻訳日:2021-03-20 10:33:22 公開日:2021-01-23 |
# (参考訳) ReliefE: マニフォールド埋め込みによる高次元空間の特徴ランク付け ReliefE: Feature Ranking in High-dimensional Spaces via Manifold Embeddings ( http://arxiv.org/abs/2101.09577v1 ) ライセンス: CC BY 4.0 | Bla\v{z} \v{S}krlj, Sa\v{s}o D\v{z}eroski, Nada Lavra\v{c} and Matej Petkovi\'c | (参考訳) 特徴ランキングは、高スループット生物学や社会科学などの機械学習アプリケーションで広く採用されている。
一般的なレリーフ・ファミリのアルゴリズムのアプローチは、最も重要で無関係なインスタンスを反復的に計算することで、特徴に重要性を割り当てる。
高い実用性にもかかわらず、これらのアルゴリズムは計算コストが高く、高次元スパース入力空間に適している。
対照的に、最近の埋め込み型手法はコンパクトで低次元の表現を学習し、従来の学習者の下流学習能力を促進する可能性がある。
本稿では、与えられた埋め込みの次元性が考慮されたデータセットの次元性に内在する、例と対象空間の(リーマン多様体に基づく)埋め込みの恩恵を受けるアルゴリズムのレリーフブランチについて検討する。
開発したReliefEアルゴリズムはより高速で,マルチクラスおよびマルチラベル分類タスクを対象とした20のリアルタイムデータセットの評価結果から,より優れた特徴ランク付けを実現することができる。
高次元データセットに対するReliefEの有用性は、スパース行列代数演算を利用する実装によって保証される。
最後に,他のランキングアルゴリズムとの関係をファジィjaccard indexを用いて検討する。 Feature ranking has been widely adopted in machine learning applications such as high-throughput biology and social sciences. The approaches of the popular Relief family of algorithms assign importances to features by iteratively accounting for nearest relevant and irrelevant instances. Despite their high utility, these algorithms can be computationally expensive and not-well suited for high-dimensional sparse input spaces. In contrast, recent embedding-based methods learn compact, low-dimensional representations, potentially facilitating down-stream learning capabilities of conventional learners. This paper explores how the Relief branch of algorithms can be adapted to benefit from (Riemannian) manifold-based embeddings of instance and target spaces, where a given embedding's dimensionality is intrinsic to the dimensionality of the considered data set. The developed ReliefE algorithm is faster and can result in better feature rankings, as shown by our evaluation on 20 real-life data sets for multi-class and multi-label classification tasks. The utility of ReliefE for high-dimensional data sets is ensured by its implementation that utilizes sparse matrix algebraic operations. Finally, the relation of ReliefE to other ranking algorithms is studied via the Fuzzy Jaccard Index. | 翻訳日:2021-03-20 10:25:07 公開日:2021-01-23 |
# 多層HMMを用いた屋内グループ活動認識 Indoor Group Activity Recognition using Multi-Layered HMMs ( http://arxiv.org/abs/2101.10857v1 ) ライセンス: Link先を確認 | Vinayak Elangovan | (参考訳) 画像データ処理に基づくグループ活動(ga)の発見と認識は,インターネットサービスにおいて重要な役割を果たす永続的監視システムにおいて重要な役割を担っている。
このプロセスは時空間的関連を持つ逐次画像データの解析に関わっている。
映像の識別には、凝集観察を識別し、識別し、それらを既知のオントロジーに関連付けることのできる適切な推論システムが必要である。
本稿では,グループ活動における事象の列を識別・分類できる適切な推論モデルを用いたオントロジーに基づくGARを提案する。
多層隠れマルコフモデル(HMM)は抽象GAの異なるレベルを認識するために提案される。
多層HMMはHMMのN層から構成され、各層はM個のHMMが並列に走る。
レイヤの数は、抽出される情報の順序に依存する。
各層において、検出されたグループイベントの属性を一致させ、関連付けることで、モデルは既知のオントロジー知覚と感覚観察を関連付けようとする。
本稿では,HMMの3つの異なる実装,すなわち,結合型N-HMM,カスケード型C-HMM,ハイブリッド型H-HMMの性能を比較して比較する。 Discovery and recognition of Group Activities (GA) based on imagery data processing have significant applications in persistent surveillance systems, which play an important role in some Internet services. The process is involved with analysis of sequential imagery data with spatiotemporal associations. Discretion of video imagery requires a proper inference system capable of discriminating and differentiating cohesive observations and interlinking them to known ontologies. We propose an Ontology based GAR with a proper inference model that is capable of identifying and classifying a sequence of events in group activities. A multi-layered Hidden Markov Model (HMM) is proposed to recognize different levels of abstract GA. The multi-layered HMM consists of N layers of HMMs where each layer comprises of M number of HMMs running in parallel. The number of layers depends on the order of information to be extracted. At each layer, by matching and correlating attributes of detected group events, the model attempts to associate sensory observations to known ontology perceptions. This paper demonstrates and compares performance of three different implementation of HMM, namely, concatenated N-HMM, cascaded C-HMM and hybrid H-HMM for building effective multi-layered HMM. | 翻訳日:2021-03-19 10:52:19 公開日:2021-01-23 |
# 注意型ニューラルマシン翻訳を用いた地球観測データを用いた自然言語質問応答 Towards Natural Language Question Answering over Earth Observation Linked Data using Attention-based Neural Machine Translation ( http://arxiv.org/abs/2101.09427v1 ) ライセンス: Link先を確認 | Abhishek V. Potnis, Rajat C. Shinde, Surya S. Durbha | (参考訳) Geospatial Linked Open Dataの採用とWeb上での公開により、このようなリッチなヘテロジニアスなマルチモーダルデータセットのシームレスかつ効率的な探索的分析のための直感的なインターフェースとシステムを開発する必要がある。
この研究は、クエリーを容易にする自然言語インタフェースを開発することにより、地球観測(EO)リンクデータの探索プロセスの改善を目的としている。
地球観測リンクデータに関する質問は、本質的に時空間次元を持ち、GeoSPARQLを使って表現することができる。
本稿では,自然言語質問からGeoSPARQLクエリへの変換を目的とした,RNNに基づくニューラルネットワーク翻訳の検討と解析を行う。
具体的には、自然言語における空間述語を、-egenhofer と rcc8 の関係を含む geosparql のトポロジー語彙拡張に識別・マッピングするための神経アプローチの実現可能性を評価することを目的としている。
クエリはトリプルストア上で実行され、自然言語の質問に対する回答が得られる。
自然言語の質問から、Corine Land Cover(CLC)上のGeoSPARQLクエリへのマッピングからなるデータセットが作成され、ディープニューラルネットワークのトレーニングと検証が行われた。
実験から,自然言語質問における空間述語をGeoSPARQLクエリに翻訳する作業において,注意を伴うニューラルマシン翻訳が有望なアプローチであることは明らかである。 With an increase in Geospatial Linked Open Data being adopted and published over the web, there is a need to develop intuitive interfaces and systems for seamless and efficient exploratory analysis of such rich heterogeneous multi-modal datasets. This work is geared towards improving the exploration process of Earth Observation (EO) Linked Data by developing a natural language interface to facilitate querying. Questions asked over Earth Observation Linked Data have an inherent spatio-temporal dimension and can be represented using GeoSPARQL. This paper seeks to study and analyze the use of RNN-based neural machine translation with attention for transforming natural language questions into GeoSPARQL queries. Specifically, it aims to assess the feasibility of a neural approach for identifying and mapping spatial predicates in natural language to GeoSPARQL's topology vocabulary extension including - Egenhofer and RCC8 relations. The queries can then be executed over a triple store to yield answers for the natural language questions. A dataset consisting of mappings from natural language questions to GeoSPARQL queries over the Corine Land Cover(CLC) Linked Data has been created to train and validate the deep neural network. From our experiments, it is evident that neural machine translation with attention is a promising approach for the task of translating spatial predicates in natural language questions to GeoSPARQL queries. | 翻訳日:2021-03-19 10:51:46 公開日:2021-01-23 |
# ARTH: テキストを手作業で読むアルゴリズム - 単語処理の問題に対処するAI支援 ARTH: Algorithm For Reading Text Handily -- An AI Aid for People having Word Processing Issues ( http://arxiv.org/abs/2101.09464v1 ) ライセンス: Link先を確認 | Akanksha Malhotra and Sudhir Kamle | (参考訳) このプロジェクトの目的は、トラウマや軽度の精神障害といった単語処理の問題に直面する大きな問題の1つを解決することである。
ARTHは、手軽に読むアルゴリズムの短い形式である。
ARTHは、すべてのユーザのニーズに応じて調整される“テキストの読み上げと理解”の必要性を満たすインテリジェントな方法である、自己学習アルゴリズムのセットである。
研究プロジェクトは2つのステップで伝播します。
最初のステップでは、アルゴリズムは、クラスタリングアルゴリズムを使用して、音節数と使用頻度という2つの特徴に基づいて、テキストに存在する難しい単語を識別しようとする。
クラスタの分析の後、アルゴリズムはその難易度に応じてこれらのクラスタをラベル付けする。
第2のステップでは、アルゴリズムがユーザと対話する。
自動生成クイズを用いて,ユーザのテキストの理解度と語彙レベルをテストすることを目的とする。
このアルゴリズムは,分析結果に基づいて,ユーザにとって困難なクラスタを識別する。
それらの横に知覚困難な単語の意味が表示される。
ARTH」技術は、語彙が乏しい人や、言葉処理の問題のある人の間で読書の喜びが復活することに焦点を当てている。 The objective of this project is to solve one of the major problems faced by the people having word processing issues like trauma, or mild mental disability. "ARTH" is the short form of Algorithm for Reading Handily. ARTH is a self-learning set of algorithms that is an intelligent way of fulfilling the need for "reading and understanding the text effortlessly" which adjusts according to the needs of every user. The research project propagates in two steps. In the first step, the algorithm tries to identify the difficult words present in the text based on two features -- the number of syllables and usage frequency -- using a clustering algorithm. After the analysis of the clusters, the algorithm labels these clusters, according to their difficulty level. In the second step, the algorithm interacts with the user. It aims to test the user's comprehensibility of the text and his/her vocabulary level by taking an automatically generated quiz. The algorithm identifies the clusters which are difficult for the user, based on the result of the analysis. The meaning of perceived difficult words is displayed next to them. The technology "ARTH" focuses on the revival of the joy of reading among those people, who have a poor vocabulary or any word processing issues. | 翻訳日:2021-03-19 10:51:25 公開日:2021-01-23 |
# ラベルなし主成分分析 Unlabeled Principal Component Analysis ( http://arxiv.org/abs/2101.09446v1 ) ライセンス: Link先を確認 | Yunzhen Yao, Liangzu Peng and Manolis C. Tsakiris | (参考訳) 我々は、各列のエントリが未知の置換(unlabeled principal component analysis (upca) と呼ばれる)を受けるデータ行列から主成分分析の問題を考える。
代数幾何学を用いて、十分一般的なデータと、周囲の空間の座標の置換について、データを説明する極小次元の一意な部分空間が存在することを立証する。
多項式方程式の置換不変系は有限個の解を持ち、各解は基底トラスデータ行列の行置換に対応する。
置換点上に欠落するエントリが与えられると、ラベルなし行列完備化の問題が起こり、同様のフレーバーの理論的結果が得られる。
また,データのほんの一部しか置換されていない場合に適したupcaのための2段階のアルゴリズムパイプラインを提案する。
このパイプラインのステージiはロバスト-pca法を用いて地上列空間を推定する。
列空間を具備したステージIIでは、順列データを復元するための対応のない線形回帰法を適用している。
計算研究では、UPCAが標準的なデスクトップコンピュータで任意のサイズの任意のサイズのパッチを0.3ドル秒で任意に置換した拡張Yale-Bデータベースから顔画像を処理する機能を含む、奨励的な発見を明らかにしている。 We consider the problem of principal component analysis from a data matrix where the entries of each column have undergone some unknown permutation, termed Unlabeled Principal Component Analysis (UPCA). Using algebraic geometry, we establish that for generic enough data, and up to a permutation of the coordinates of the ambient space, there is a unique subspace of minimal dimension that explains the data. We show that a permutation-invariant system of polynomial equations has finitely many solutions, with each solution corresponding to a row permutation of the ground-truth data matrix. Allowing for missing entries on top of permutations leads to the problem of unlabeled matrix completion, for which we give theoretical results of similar flavor. We also propose a two-stage algorithmic pipeline for UPCA suitable for the practically relevant case where only a fraction of the data has been permuted. Stage-I of this pipeline employs robust-PCA methods to estimate the ground-truth column-space. Equipped with the column-space, stage-II applies methods for linear regression without correspondences to restore the permuted data. A computational study reveals encouraging findings, including the ability of UPCA to handle face images from the Extended Yale-B database with arbitrarily permuted patches of arbitrary size in $0.3$ seconds on a standard desktop computer. | 翻訳日:2021-03-19 10:51:06 公開日:2021-01-23 |
# 強化学習を用いた特徴選択 Feature Selection Using Reinforcement Learning ( http://arxiv.org/abs/2101.09460v1 ) ライセンス: Link先を確認 | Sali Rasoul, Sodiq Adewole, Alphonse Akakpo | (参考訳) データ収集のコストが低下するにつれて、特定の関心の予測器を特徴づける変数や特徴の空間は指数関数的に増加し続けている。
したがって、モデルのバイアスを損なうことなく分散を最小化する最も特徴付けられる特徴を識別することは、機械学習モデルをうまくトレーニングするのに不可欠である。
また,これらの特徴の同定は,解釈可能性,予測精度,最適計算コストにおいて重要である。
特徴集合の選択には, 部分集合選択, 縮小, 次元減少などの統計的手法が適用されているが, 検索空間の各状態が特徴集合となるような探索問題として, 文献上の他の手法が特徴選択タスクにアプローチしている。
本稿では,強化学習を用いて特徴選択問題を解く。
状態空間をマルコフ決定過程 (MDP) として定式化し, 時間差分法 (TD) アルゴリズムを用いて特徴量の最適部分集合を選択する。
各状態は、データセットのどの非線形性も扱えるロバストで低コストな分類アルゴリズムを用いて評価された。 With the decreasing cost of data collection, the space of variables or features that can be used to characterize a particular predictor of interest continues to grow exponentially. Therefore, identifying the most characterizing features that minimizes the variance without jeopardizing the bias of our models is critical to successfully training a machine learning model. In addition, identifying such features is critical for interpretability, prediction accuracy and optimal computation cost. While statistical methods such as subset selection, shrinkage, dimensionality reduction have been applied in selecting the best set of features, some other approaches in literature have approached feature selection task as a search problem where each state in the search space is a possible feature subset. In this paper, we solved the feature selection problem using Reinforcement Learning. Formulating the state space as a Markov Decision Process (MDP), we used Temporal Difference (TD) algorithm to select the best subset of features. Each state was evaluated using a robust and low cost classifier algorithm which could handle any non-linearities in the dataset. | 翻訳日:2021-03-19 10:50:47 公開日:2021-01-23 |
# 動的プログラミングによる系列の教師なしクラスタリング Unsupervised clustering of series using dynamic programming ( http://arxiv.org/abs/2101.09512v1 ) ライセンス: Link先を確認 | Karthigan Sinnathamby, Chang-Yu Hou, Lalitha Venkataramanan, Vasileios-Marios Gkortsas, Fran\c{c}ois Fleuret | (参考訳) 我々は、与えられた単一の多変量級数の一部を教師なしの方法でクラスタリングすることに興味を持っている。
各クラスタに存在するブロックが既知のモデル(例えば、)に対して整合的であるように、シリーズを分割してクラスタ化したい。
物理モデル)。
データポイントがコヒーレントであるとは、同じパラメータを持つこのモデルを使って記述できる場合である。
我々は,クラスタ数,遷移数,ブロックの最小サイズに制約を課した動的プログラミングに基づくアルゴリズムを設計した。
We present an use-case: clustering of petrophysical series using the Waxman-Smits equation。 We are interested in clustering parts of a given single multi-variate series in an unsupervised manner. We would like to segment and cluster the series such that the resulting blocks present in each cluster are coherent with respect to a known model (e.g. physics model). Data points are said to be coherent if they can be described using this model with the same parameters. We have designed an algorithm based on dynamic programming with constraints on the number of clusters, the number of transitions as well as the minimal size of a block such that the clusters are coherent with this process. We present an use-case: clustering of petrophysical series using the Waxman-Smits equation. | 翻訳日:2021-03-19 10:50:28 公開日:2021-01-23 |
# メモリ効率のよい半教師付き連続学習:世界は独自のリプレイバッファである Memory-Efficient Semi-Supervised Continual Learning: The World is its Own Replay Buffer ( http://arxiv.org/abs/2101.09536v1 ) ライセンス: Link先を確認 | James Smith, Jonathan Balloch, Yen-Chang Hsu, Zsolt Kira | (参考訳) リハーサルは、クラス増分連続学習にとって重要な要素であるが、かなりのメモリ予算を必要とする。
本研究は,エージェント環境からのラベルなしデータを活用することで,メモリ予算を大幅に削減できるかどうかを,現実的で挑戦的な連続学習パラダイムで検討する。
具体的には、ラベル付きデータが少ないが非i.d.で、新しい半教師付き連続学習(SSCL)を探索し、形式化する。
エージェントの環境からのラベルなしデータは 豊富です
重要なことは、SSCL設定におけるデータ分布は現実的であり、したがってラベル付きおよびラベルなしのデータ分布間のオブジェクトクラス相関を反映する。
本稿では, 疑似ラベル付け, 整合正則化, OoD(Out-of-Distribution)検出, 知識蒸留により, この設定での忘れを少なくする戦略を示す。
我々のアプローチであるDistillMatchは、SSCL CIFAR-100実験において、平均タスク精度を8.7%以下に向上し、平均タスク精度を54.5%向上させる。
さらに,0.08 しか保存しない次の最良法と比較して,処理未ラベル画像毎に最大 0.23 個の保存画像を保存することができることを示した。
その結果,現実的な相関分布に着目することは,世界構造を継続的な学習戦略として活用することの重要性を強調させる,極めて新しい視点であることが示唆された。 Rehearsal is a critical component for class-incremental continual learning, yet it requires a substantial memory budget. Our work investigates whether we can significantly reduce this memory budget by leveraging unlabeled data from an agent's environment in a realistic and challenging continual learning paradigm. Specifically, we explore and formalize a novel semi-supervised continual learning (SSCL) setting, where labeled data is scarce yet non-i.i.d. unlabeled data from the agent's environment is plentiful. Importantly, data distributions in the SSCL setting are realistic and therefore reflect object class correlations between, and among, the labeled and unlabeled data distributions. We show that a strategy built on pseudo-labeling, consistency regularization, Out-of-Distribution (OoD) detection, and knowledge distillation reduces forgetting in this setting. Our approach, DistillMatch, increases performance over the state-of-the-art by no less than 8.7% average task accuracy and up to a 54.5% increase in average task accuracy in SSCL CIFAR-100 experiments. Moreover, we demonstrate that DistillMatch can save up to 0.23 stored images per processed unlabeled image compared to the next best method which only saves 0.08. Our results suggest that focusing on realistic correlated distributions is a significantly new perspective, which accentuates the importance of leveraging the world's structure as a continual learning strategy. | 翻訳日:2021-03-19 10:50:16 公開日:2021-01-23 |
# Show or Suppress?
機械学習モデル説明における入力不確かさの管理 Show or Suppress? Managing Input Uncertainty in Machine Learning Model Explanations ( http://arxiv.org/abs/2101.09498v1 ) ライセンス: Link先を確認 | Danding Wang, Wencan Zhang and Brian Y. Lim | (参考訳) 特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。
しかし、測定は不確かであり、入力の不確実性に対する認識が説明の信頼にどのように影響するかは不明である。
モデル説明において,ユーザが不確実性に対する認識を管理するための2つのアプローチを提案する。1)特徴属性の不確実性を透過的に示し,2)不確実性のある特徴への寄与を抑え,また,不確実性ペナルティで規則化することで他の特徴への帰属を抑える。
シミュレーション実験,質的インタビュー,定量的ユーザ評価を通じて,帰属不確実性を適度に抑制するメリット,帰属不確実性を示すことへの懸念を明らかにした。
この作業は、モデル解釈可能性の扱いや不確実性に関する理解を深める。 Feature attribution is widely used in interpretable machine learning to explain how influential each measured input feature value is for an output inference. However, measurements can be uncertain, and it is unclear how the awareness of input uncertainty can affect the trust in explanations. We propose and study two approaches to help users to manage their perception of uncertainty in a model explanation: 1) transparently show uncertainty in feature attributions to allow users to reflect on, and 2) suppress attribution to features with uncertain measurements and shift attribution to other features by regularizing with an uncertainty penalty. Through simulation experiments, qualitative interviews, and quantitative user evaluations, we identified the benefits of moderately suppressing attribution uncertainty, and concerns regarding showing attribution uncertainty. This work adds to the understanding of handling and communicating uncertainty for model interpretability. | 翻訳日:2021-03-19 10:49:51 公開日:2021-01-23 |
# B-HAR:人間の活動認識データセットとワークフローを深く研究するためのオープンソースのベースラインフレームワーク B-HAR: an open-source baseline framework for in depth study of human activity recognition datasets and workflows ( http://arxiv.org/abs/2101.10870v1 ) ライセンス: Link先を確認 | Florenc Demrozi, Cristian Turetta, Graziano Pravadelli | (参考訳) 機械学習アルゴリズムに基づくヒューマンアクティビティ認識(HAR)は、様々なカテゴリーの人々(例えば、アスリート、高齢者、子供、雇用主)の職業的および日常生活活動を監視する最も有望な技術の一つと考えられており、福祉、技術的パフォーマンスの強化、リスク状況の防止、教育目的など、様々なサービスを提供している。
しかし,HAR手法の有効性と効率性の分析は,パターン認識モデルの品質評価の基準となる標準ワークフローの欠如に悩まされている。
これにより、異なるアプローチの比較が困難なタスクになる。
さらに、研究者は、検出されない場合、達成した結果に確実に影響を及ぼす間違いを犯すことができる。
そこで本稿では,HAR手法の評価と比較を目的としたベースラインフレームワークの定義,標準化,開発のための,B-HARというオープンソースの自動・高構成可能なフレームワークを提案する。
データ準備のための最も一般的なデータ処理方法と、最も一般的な機械学習およびディープラーニングパターン認識モデルを実装している。 Human Activity Recognition (HAR), based on machine and deep learning algorithms is considered one of the most promising technologies to monitor professional and daily life activities for different categories of people (e.g., athletes, elderly, kids, employers) in order to provide a variety of services related, for example to well-being, empowering of technical performances, prevention of risky situation, and educational purposes. However, the analysis of the effectiveness and the efficiency of HAR methodologies suffers from the lack of a standard workflow, which might represent the baseline for the estimation of the quality of the developed pattern recognition models. This makes the comparison among different approaches a challenging task. In addition, researchers can make mistakes that, when not detected, definitely affect the achieved results. To mitigate such issues, this paper proposes an open-source automatic and highly configurable framework, named B-HAR, for the definition, standardization, and development of a baseline framework in order to evaluate and compare HAR methodologies. It implements the most popular data processing methods for data preparation and the most commonly used machine and deep learning pattern recognition models. | 翻訳日:2021-03-19 10:49:32 公開日:2021-01-23 |
# 逆例に対する誤差拡散ハーフトニング Error Diffusion Halftoning Against Adversarial Examples ( http://arxiv.org/abs/2101.09451v1 ) ライセンス: Link先を確認 | Shao-Yuan Lo and Vishal M. Patel | (参考訳) 敵対的な例としては、ディープニューラルネットワーク(DNN)を騙して誤った予測をすることができる、慎重に構築された摂動がある。
近年、DNNの敵対的堅牢性を高めることが大きな関心を集めている。
画像変換に基づく防御は以前から広く検討されていたが、そのほとんどは適応攻撃によって打ち負かされている。
本稿では,誤り拡散ハーフトニングに基づく新たな画像変換防御法を提案する。
誤差拡散ハーフトニングは画像を1ビット空間に投影し、隣接するピクセルに量子化誤差を拡散する。
このプロセスは、認識に有利な画像品質を維持しつつ、所定の画像から敵の摂動を取り除くことができる。
実験の結果,提案手法はアドバンス・アダプティブ・アタック(advanced adaptive attack,advanced adaptive attack,advanced adversarial robustness,advanced)においても頑健性が向上することが示された。
適切な画像変換が効果的な防御手法であることを示す。 Adversarial examples contain carefully crafted perturbations that can fool deep neural networks (DNNs) into making wrong predictions. Enhancing the adversarial robustness of DNNs has gained considerable interest in recent years. Although image transformation-based defenses were widely considered at an earlier time, most of them have been defeated by adaptive attacks. In this paper, we propose a new image transformation defense based on error diffusion halftoning, and combine it with adversarial training to defend against adversarial examples. Error diffusion halftoning projects an image into a 1-bit space and diffuses quantization error to neighboring pixels. This process can remove adversarial perturbations from a given image while maintaining acceptable image quality in the meantime in favor of recognition. Experimental results demonstrate that the proposed method is able to improve adversarial robustness even under advanced adaptive attacks, while most of the other image transformation-based defenses do not. We show that a proper image transformation can still be an effective defense approach. | 翻訳日:2021-03-19 10:48:54 公開日:2021-01-23 |
# 単眼画像を用いた実時間飛行可能非協力型宇宙船ポーズ推定 Real-Time, Flight-Ready, Non-Cooperative Spacecraft Pose Estimation Using Monocular Imagery ( http://arxiv.org/abs/2101.09553v1 ) ライセンス: Link先を確認 | Kevin Black, Shrivu Shankar, Daniel Fonseka, Jacob Deutsch, Abhimanyu Dhir, and Maruthi R. Akella | (参考訳) 自律軌道上での近接操作のための重要な要件は、標的宇宙船の相対的な姿勢(位置と向き)の推定である。
コスト、重量、電力の要求が低いため、この問題に対して単眼カメラを採用することが望ましい。
本研究では,新しい畳み込みニューラルネットワーク(CNN)を用いた単眼ポーズ推定システムを提案する。
ブレンダーベースの合成データ生成スキームと組み合わせて、システムは純粋に合成されたトレーニングデータから、ノースロップ・グラマン拡張シグナスの実際の宇宙画像に一般化する能力を示す。
さらに,低消費電力飛行型ハードウェア上でのリアルタイム性能を実現する。 A key requirement for autonomous on-orbit proximity operations is the estimation of a target spacecraft's relative pose (position and orientation). It is desirable to employ monocular cameras for this problem due to their low cost, weight, and power requirements. This work presents a novel convolutional neural network (CNN)-based monocular pose estimation system that achieves state-of-the-art accuracy with low computational demand. In combination with a Blender-based synthetic data generation scheme, the system demonstrates the ability to generalize from purely synthetic training data to real in-space imagery of the Northrop Grumman Enhanced Cygnus spacecraft. Additionally, the system achieves real-time performance on low-power flight-like hardware. | 翻訳日:2021-03-19 10:48:35 公開日:2021-01-23 |
# S-BEV:Smantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization ( http://arxiv.org/abs/2101.09569v1 ) ライセンス: Link先を確認 | Mokshith Voodarla, Shubham Shrivastava, Sagar Manglani, Ankit Vora, Siddharth Agarwal, Punarjay Chakravarty | (参考訳) 視覚に基づく車両再局在化のための,軽量で気象・照明の不変なs-bev(s-bev)シグネチャについて述べる。
S-BEVシグネチャのトポロジカルマップは、ルートの最初のトラバース中に作成され、その後のルートトラバースにおける粗いローカライゼーションに使用される。
微粒なローカライザは、S-BEVと粗いローカライゼーションを使用して、車両のグローバルな3DoFポーズを出力するように訓練される。
vkitti2仮想データセットの実験を行い、s-bevが気象や照明に堅牢になる可能性を示す。
また、フォードavデータセット内の22kmの高速道路で2台の車両で結果を示す。 We describe a light-weight, weather and lighting invariant, Semantic Bird's Eye View (S-BEV) signature for vision-based vehicle re-localization. A topological map of S-BEV signatures is created during the first traversal of the route, which are used for coarse localization in subsequent route traversal. A fine-grained localizer is then trained to output the global 3-DoF pose of the vehicle using its S-BEV and its coarse localization. We conduct experiments on vKITTI2 virtual dataset and show the potential of the S-BEV to be robust to weather and lighting. We also demonstrate results with 2 vehicles on a 22 km long highway route in the Ford AV dataset. | 翻訳日:2021-03-19 10:48:23 公開日:2021-01-23 |
# websrc: webベースの構造理解のためのデータセット WebSRC: A Dataset for Web-Based Structural Reading Comprehension ( http://arxiv.org/abs/2101.09465v1 ) ライセンス: Link先を確認 | Lu Chen, Xingyu Chen, Zihan Zhao, Danyang Zhang, Jiabao Ji, Ao Luo, Yuxuan Xiong, Kai Yu | (参考訳) ウェブ検索は人間が情報を得るための必須の方法ですが、マシンがWebページの内容を理解することは依然として大きな課題です。
本稿では,Web上の構造的読解の課題を紹介する。
ウェブページとそれに関する質問が与えられたら、そのタスクはウェブページから答えを見つけることである。
このタスクは、テキストの意味だけでなく、Webページの構造を理解するためにもシステムを必要とする。
さらに,新しいWebベース構造読解データセットであるWebSRCを提案する。
WebSRCは0.44万の質問応答対で構成され、HTMLソースコード、スクリーンショット、メタデータを含む6.5KのWebページから収集される。
websrcの各質問には、答えるためにwebページの構造的な理解が必要であり、答えはwebページのテキストスパンかyes/noである。
我々は,タスクの難易度を示すために,データセット上で様々な強いベースラインを評価する。
また,構造情報と視覚特性の有用性についても検討した。
私たちのデータセットとタスクはhttps://speechlab-sjtu.github.io/websrc/で公開されている。 Web search is an essential way for human to obtain information, but it's still a great challenge for machines to understand the contents of web pages. In this paper, we introduce the task of web-based structural reading comprehension. Given a web page and a question about it, the task is to find an answer from the web page. This task requires a system not only to understand the semantics of texts but also the structure of the web page. Moreover, we proposed WebSRC, a novel Web-based Structural Reading Comprehension dataset. WebSRC consists of 0.44M question-answer pairs, which are collected from 6.5K web pages with corresponding HTML source code, screenshots, and metadata. Each question in WebSRC requires a certain structural understanding of a web page to answer, and the answer is either a text span on the web page or yes/no. We evaluate various strong baselines on our dataset to show the difficulty of our task. We also investigate the usefulness of structural information and visual features. Our dataset and task are publicly available at https://speechlab-sjtu.github.io/WebSRC/. | 翻訳日:2021-03-19 10:48:07 公開日:2021-01-23 |
# バイトレベルサブワードを用いた多言語事前学習言語モデルの訓練 Training Multilingual Pre-trained Language Model with Byte-level Subwords ( http://arxiv.org/abs/2101.09469v1 ) ライセンス: Link先を確認 | Junqiu Wei, Qun Liu, Yinpeng Guo, Xin Jiang | (参考訳) 事前学習された言語モデルは、大規模コーパスで事前学習することで、テキスト中の深い文脈情報を取得する能力により、様々な自然言語理解(NLU)タスクで大きな成功を収めている。
事前訓練された言語モデルの基本的な構成要素の1つは語彙であり、特に多くの異なる言語で多言語モデルを訓練するためのものである。
本稿では,BBPE(Byte-Level BPE,Byte Pair Encoding)を用いた多言語事前学習言語モデルの訓練実践について述べる。
実験では、NEZHAのアーキテクチャを基礎となる事前学習言語モデルとして採用し、バイトレベルのサブワードで訓練したNEZHAが、Googleの多言語BERTとバニラNEZHAを、複数の多言語NLUタスクにおいて顕著な差で、一貫して上回っていることを示す。
我々は,バイトレベルの語彙構築ツールと多言語事前学習言語モデルのソースコードをリリースする。 The pre-trained language models have achieved great successes in various natural language understanding (NLU) tasks due to its capacity to capture the deep contextualized information in text by pre-training on large-scale corpora. One of the fundamental components in pre-trained language models is the vocabulary, especially for training multilingual models on many different languages. In the technical report, we present our practices on training multilingual pre-trained language models with BBPE: Byte-Level BPE (i.e., Byte Pair Encoding). In the experiment, we adopted the architecture of NEZHA as the underlying pre-trained language model and the results show that NEZHA trained with byte-level subwords consistently outperforms Google multilingual BERT and vanilla NEZHA by a notable margin in several multilingual NLU tasks. We release the source code of our byte-level vocabulary building tools and the multilingual pre-trained language models. | 翻訳日:2021-03-19 10:47:50 公開日:2021-01-23 |
# 語順の進化について On the Evolution of Word Order ( http://arxiv.org/abs/2101.09579v1 ) ライセンス: Link先を確認 | Idan Rejwan and Avi Caciularu | (参考訳) ほとんどの自然言語は、支配的または固定的な語順を持つ。
例えば、英語では、最もよく使われる語順はsubject-verb-objectである。
本研究は, この現象と, 語順に関する他の類型的知見を, 機能的観点から説明しようとするものである。
すなわち、固定語順が機能上の優位性を与えるかどうかという問題であり、これらの言語がなぜ一般的であるかを説明するものである。
この目的のために、言語の進化モデルを検討し、理論的および遺伝的アルゴリズムに基づくシミュレーションを用いて、最適な言語は固定語順を持つものであることを示す。
また,事例マーカーや名詞動詞の区別などの文への情報付加は,類型的発見に応じて単語の順序を固定する必要性を減少させることを示す。 Most natural languages have a predominant or fixed word order. For example, in English, the word order used most often is Subject-Verb-Object. This work attempts to explain this phenomena as well as other typological findings regarding word order from a functional perspective. That is, we target the question of whether fixed word order gives a functional advantage, that may explain why these languages are common. To this end, we consider an evolutionary model of language and show, both theoretically and using a genetic algorithm-based simulation, that an optimal language is one with fixed word order. We also show that adding information to the sentence, such as case markers and noun-verb distinction, reduces the need for fixed word order, in accordance with the typological findings. | 翻訳日:2021-03-19 10:47:31 公開日:2021-01-23 |
# プロキシラベル付き部分ラベルデータに対する粒状条件エントロピーに基づく属性削減 Granular conditional entropy-based attribute reduction for partially labeled data with proxy labels ( http://arxiv.org/abs/2101.09495v1 ) ライセンス: Link先を確認 | Can Gao, Jie Zhoua, Duoqian Miao, Xiaodong Yue, Jun Wan | (参考訳) 属性還元は粗集合論において最も重要な研究テーマの一つであり,多くの粗集合に基づく属性還元法が提案されている。
しかし、その多くはラベル付きデータかラベル付きデータのいずれかを扱うために特別に設計されている。
本稿では,部分ラベル付きデータに対するラフセットに基づく半教師付き属性削減手法を提案する。
特に、データに関する事前のクラス分布情報を用いて、ラベルなしデータのプロキシラベルを生成するための簡易かつ効果的な戦略を最初に開発する。
次に、情報粒度の概念を情報理論的な尺度に統合し、それに基づいて新しい粒度条件エントロピー測度が提案され、その単調性が理論的に証明される。
さらに、部分ラベル付きデータの最適レダクトを生成するための高速ヒューリスティックアルゴリズムが提供され、無関係な例を除去し、同時に冗長な属性を除外することにより、属性削減のプロセスを加速することができる。
UCIデータセット上で行った大規模な実験により,提案手法が有望であることを示すとともに,ラベル付きデータとラベルなしデータの教師付き手法とを,分類性能の観点から比較した。 Attribute reduction is one of the most important research topics in the theory of rough sets, and many rough sets-based attribute reduction methods have thus been presented. However, most of them are specifically designed for dealing with either labeled data or unlabeled data, while many real-world applications come in the form of partial supervision. In this paper, we propose a rough sets-based semi-supervised attribute reduction method for partially labeled data. Particularly, with the aid of prior class distribution information about data, we first develop a simple yet effective strategy to produce the proxy labels for unlabeled data. Then the concept of information granularity is integrated into the information-theoretic measure, based on which, a novel granular conditional entropy measure is proposed, and its monotonicity is proved in theory. Furthermore, a fast heuristic algorithm is provided to generate the optimal reduct of partially labeled data, which could accelerate the process of attribute reduction by removing irrelevant examples and excluding redundant attributes simultaneously. Extensive experiments conducted on UCI data sets demonstrate that the proposed semi-supervised attribute reduction method is promising and even compares favourably with the supervised methods on labeled data and unlabeled data with true labels in terms of classification performance. | 翻訳日:2021-03-19 10:46:47 公開日:2021-01-23 |
# 非共用カメラによる固定視点ミラー面再構成 Fixed Viewpoint Mirror Surface Reconstruction under an Uncalibrated Camera ( http://arxiv.org/abs/2101.09392v1 ) ライセンス: Link先を確認 | Kai Han and Miaomiao Liu and Dirk Schnieders and Kwan-Yee K. Wong | (参考訳) 本稿では,鏡面再構成の問題に対処し,鏡面上の移動基準面の反射を観測する手法を提案する。
面倒なキャリブレーションを必要とする従来のアプローチとは異なり、この手法ではカメラ内在性、基準面のポーズ、および観測された基準面の反射からの鏡面を少なくとも3つの未知の異なるポーズで復元することができる。
まず、画像と基準平面との間に設定された反射対応から基準平面の3次元ポーズを推定できることを示す。
次に、反射対応から一連の3d線を形成し、線投影行列を回復するための解析解を導出する。
線投影行列を等価なカメラ投影行列に変換し、再投影誤差を最小化してカメラ投影行列を最適化するクロス比式を提案する。
そして、最適化された横比制約に基づいて鏡面を再構成する。
合成データと実データの両方について実験結果を示し,本手法の有効性と精度を示した。 This paper addresses the problem of mirror surface reconstruction, and proposes a solution based on observing the reflections of a moving reference plane on the mirror surface. Unlike previous approaches which require tedious calibration, our method can recover the camera intrinsics, the poses of the reference plane, as well as the mirror surface from the observed reflections of the reference plane under at least three unknown distinct poses. We first show that the 3D poses of the reference plane can be estimated from the reflection correspondences established between the images and the reference plane. We then form a bunch of 3D lines from the reflection correspondences, and derive an analytical solution to recover the line projection matrix. We transform the line projection matrix to its equivalent camera projection matrix, and propose a cross-ratio based formulation to optimize the camera projection matrix by minimizing reprojection errors. The mirror surface is then reconstructed based on the optimized cross-ratio constraint. Experimental results on both synthetic and real data are presented, which demonstrate the feasibility and accuracy of our method. | 翻訳日:2021-03-19 10:46:25 公開日:2021-01-23 |
# 3次元畳み込みニューラルネットワークによる次世代の回帰 Next-best-view Regression using a 3D Convolutional Neural Network ( http://arxiv.org/abs/2101.09397v1 ) ライセンス: Link先を確認 | J. Irving Vasquez-Gomez and David Troncoso and Israel Becerra and Enrique Sucar and Rafael Murrieta-Cid | (参考訳) 三次元3次元物体の自動再構成は、物体の表面を感知して物体の幾何学的表現を構築する作業である。
新しい単一視点の復元技術は表面を予測できるが、それらは不完全なモデル、特にアンティークオブジェクトや美術彫刻のような非一般的なオブジェクトに繋がる。
したがって、タスクの目標を達成するためには、センサーが配置される場所を自動的に決定し、表面を完全に観察することが不可欠である。
この問題は次のベストビュー問題として知られている。
本稿では,この問題に対処するためのデータ駆動アプローチを提案する。
提案手法は、3次元畳み込みニューラルネットワーク(3D CNN)をトレーニングし、次のベストビューの \btxt{position of the} を回帰する。
我々の知る限りでは、これは3Dオブジェクト再構成タスクのためのデータ駆動アプローチを用いて、連続空間における次のベストビューを直接推論する最初の作品の1つである。
提案手法を2つの実験グループを用いて検証した。
最初のグループでは、提案したアーキテクチャのいくつかの変種を分析した。
予測された次の視点は、地上の真理に密接な位置にあることが観察された。
第2の実験群では,未発見物体,すなわち,訓練中や検証中に3d cnnが考慮しない物体を再構築する手法が求められた。
カバー率は90 %までであった。
現在の最先端手法に関して,提案手法は,従来の情報メトリクスが必要とする高コストのレイトレーシングを計算できないため,従来の次回のベストビュー分類手法の性能を向上し,実行時間(3フレーム/秒)が非常に高速である。 Automated three-dimensional (3D) object reconstruction is the task of building a geometric representation of a physical object by means of sensing its surface. Even though new single view reconstruction techniques can predict the surface, they lead to incomplete models, specially, for non commons objects such as antique objects or art sculptures. Therefore, to achieve the task's goals, it is essential to automatically determine the locations where the sensor will be placed so that the surface will be completely observed. This problem is known as the next-best-view problem. In this paper, we propose a data-driven approach to address the problem. The proposed approach trains a 3D convolutional neural network (3D CNN) with previous reconstructions in order to regress the \btxt{position of the} next-best-view. To the best of our knowledge, this is one of the first works that directly infers the next-best-view in a continuous space using a data-driven approach for the 3D object reconstruction task. We have validated the proposed approach making use of two groups of experiments. In the first group, several variants of the proposed architecture are analyzed. Predicted next-best-views were observed to be closely positioned to the ground truth. In the second group of experiments, the proposed approach is requested to reconstruct several unseen objects, namely, objects not considered by the 3D CNN during training nor validation. Coverage percentages of up to 90 \% were observed. With respect to current state-of-the-art methods, the proposed approach improves the performance of previous next-best-view classification approaches and it is quite fast in running time (3 frames per second), given that it does not compute the expensive ray tracing required by previous information metrics. | 翻訳日:2021-03-19 10:46:09 公開日:2021-01-23 |
# 1次元畳み込みとBiGRUを用いたパーキンソン病検出のためのシーケンスベース動的手書き解析 Sequence-based Dynamic Handwriting Analysis for Parkinson's Disease Detection with One-dimensional Convolutions and BiGRUs ( http://arxiv.org/abs/2101.09461v1 ) ライセンス: Link先を確認 | Moises Diaz, Momina Moetesum, Imran Siddiqi, Gennaro Vessio | (参考訳) パーキンソン病(PD)は、ブラジキネジア、無症候、剛性、震動などのいくつかの運動症状を特徴とする。
患者の運動制御、特に手書き動作の分析は、PDアセスメントを支援する強力なツールである。
長年にわたり,オンライン筆跡取得ツールの助けを借りて取得できるペン圧,ストローク速度,空気中時間などの様々な筆跡特性がpdの同定のために評価されてきた。
運動イベントとその関連する時空間特性はオンライン手書きで捉えられ、ユニークなシーケンシャルパターンの同定を通じてPD患者の効果的な分類を可能にする。
本稿では,パーキンソン病の診断における手書きの逐次情報の可能性を評価するために,一次元畳み込みと双方向ゲート再帰単位(bigrus)に基づく新しい分類モデルを提案する。
1次元の畳み込みは生の配列や派生した特徴に適用され、得られた配列は最終分類を達成するためにBiGRU層に供給される。
提案手法は,pahawデータセットの最先端手法を上回り,newhandpdデータセットの競合結果を得た。 Parkinson's disease (PD) is commonly characterized by several motor symptoms, such as bradykinesia, akinesia, rigidity, and tremor. The analysis of patients' fine motor control, particularly handwriting, is a powerful tool to support PD assessment. Over the years, various dynamic attributes of handwriting, such as pen pressure, stroke speed, in-air time, etc., which can be captured with the help of online handwriting acquisition tools, have been evaluated for the identification of PD. Motion events, and their associated spatio-temporal properties captured in online handwriting, enable effective classification of PD patients through the identification of unique sequential patterns. This paper proposes a novel classification model based on one-dimensional convolutions and Bidirectional Gated Recurrent Units (BiGRUs) to assess the potential of sequential information of handwriting in identifying Parkinsonian symptoms. One-dimensional convolutions are applied to raw sequences as well as derived features; the resulting sequences are then fed to BiGRU layers to achieve the final classification. The proposed method outperformed state-of-the-art approaches on the PaHaW dataset and achieved competitive results on the NewHandPD dataset. | 翻訳日:2021-03-19 10:45:21 公開日:2021-01-23 |
# 限定学習のための拡張組込みによるコントラスト型プロトタイプ学習 Contrastive Prototype Learning with Augmented Embeddings for Few-Shot Learning ( http://arxiv.org/abs/2101.09499v1 ) ライセンス: Link先を確認 | Yizhao Gao, Nanyi Fei, Guangzhen Liu, Zhiwu Lu, Tao Xiang, Songfang Huang | (参考訳) 最近のいくつかのショットラーニング(FSL)手法は、エピソードトレーニングによるメタラーニングに基づいている。
各メタトレーニングエピソードにおいて、まず、内ループ内のサポートセットから識別的特徴埋め込みおよび/または分類器を構築し、その後、モデル更新のためのクエリセットを使用して外ループで評価する。
しかしながら、このクエリセットのサンプル中心学習目標は、本質的には、サポートセットにおけるトレーニングデータ問題に対処する上で制限されている。
本稿では,この限界を克服するために,拡張埋め込みモデル(cplae)を用いた新しいコントラストプロトタイプ学習を提案する。
まず、サポートセットとクエリセットの両方にデータ拡張が導入され、各サンプルは現在、オリジナルバージョンと拡張バージョンの両方の連結埋め込みからなる拡張埋め込み(ae)として表現される。
次に,コントラッシブ・プロトタイプ学習(CPL)において,コントラッシブ・ロスを中心とした新しいサポート・セット・クラス・プロトタイプを提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
このサポートセットのサンプル中心損失は、既存のクエリ中心損失と非常に相補的であり、各エピソードにおける限られたトレーニングデータを完全に活用する。
いくつかのベンチマークにおいて,提案したCPLAEが新たな最先端を実現することを示す。 Most recent few-shot learning (FSL) methods are based on meta-learning with episodic training. In each meta-training episode, a discriminative feature embedding and/or classifier are first constructed from a support set in an inner loop, and then evaluated in an outer loop using a query set for model updating. This query set sample centered learning objective is however intrinsically limited in addressing the lack of training data problem in the support set. In this paper, a novel contrastive prototype learning with augmented embeddings (CPLAE) model is proposed to overcome this limitation. First, data augmentations are introduced to both the support and query sets with each sample now being represented as an augmented embedding (AE) composed of concatenated embeddings of both the original and augmented versions. Second, a novel support set class prototype centered contrastive loss is proposed for contrastive prototype learning (CPL). With a class prototype as an anchor, CPL aims to pull the query samples of the same class closer and those of different classes further away. This support set sample centered loss is highly complementary to the existing query centered loss, fully exploiting the limited training data in each episode. Extensive experiments on several benchmarks demonstrate that our proposed CPLAE achieves new state-of-the-art. | 翻訳日:2021-03-19 10:44:58 公開日:2021-01-23 |
# 医用画像分割のためのネットワーク非依存知識伝達 Network-Agnostic Knowledge Transfer for Medical Image Segmentation ( http://arxiv.org/abs/2101.09560v1 ) ライセンス: Link先を確認 | Shuhang Wang, Vivek Kumar Singh, Alex Benjamin, Mercy Asiedu, Elham Yousef Kalafi, Eugene Cheah, Viksit Kumar, Anthony Samir | (参考訳) 従来の転送学習は、事前訓練されたネットワークの重みを利用するが、類似したニューラルネットワークアーキテクチャの必要性を義務付けている。
あるいは、知識蒸留は異種ネットワーク間で知識を伝達することができるが、しばしば元のトレーニングデータや追加の生成ネットワークにアクセスする必要がある。
ネットワーク間の知識伝達は、ネットワークアーキテクチャの選択に依存せず、元のトレーニングデータへの依存を減らすことで改善することができる。
本研究では,教師から生徒ネットワークへの知識伝達手法を提案する。そこでは,教師がアノテーションを生成する独立したトランスファーデータセットで生徒を訓練する。
セマンティックセグメンテーションのための5つの最先端ネットワークと、3つの画像モダリティにわたる7つのデータセットで実験を行った。
一つの教師からの知識伝達,知識伝達と微調整の組み合わせ,および複数の教師からの知識伝達について検討した。
一人の教師を持つ生徒モデルは教師と同様のパフォーマンスを達成し、複数の教師を持つ生徒モデルは教師より優れたパフォーマンスを得た。
本アルゴリズムの有能な特徴は,1) 独自のトレーニングデータや生成ネットワークを必要としないこと,2) 異なるアーキテクチャ間の知識伝達,3) 下流タスクデータセットを転送データセットとして使用することで下流タスクの実装が容易であること,(4) 独立して訓練されたモデルの集合体を1つの学生モデルに伝達すること,である。
大規模な実験により,提案アルゴリズムは知識伝達に有効であり,容易に学習可能であることが示された。 Conventional transfer learning leverages weights of pre-trained networks, but mandates the need for similar neural architectures. Alternatively, knowledge distillation can transfer knowledge between heterogeneous networks but often requires access to the original training data or additional generative networks. Knowledge transfer between networks can be improved by being agnostic to the choice of network architecture and reducing the dependence on original training data. We propose a knowledge transfer approach from a teacher to a student network wherein we train the student on an independent transferal dataset, whose annotations are generated by the teacher. Experiments were conducted on five state-of-the-art networks for semantic segmentation and seven datasets across three imaging modalities. We studied knowledge transfer from a single teacher, combination of knowledge transfer and fine-tuning, and knowledge transfer from multiple teachers. The student model with a single teacher achieved similar performance as the teacher; and the student model with multiple teachers achieved better performance than the teachers. The salient features of our algorithm include: 1)no need for original training data or generative networks, 2) knowledge transfer between different architectures, 3) ease of implementation for downstream tasks by using the downstream task dataset as the transferal dataset, 4) knowledge transfer of an ensemble of models, trained independently, into one student model. Extensive experiments demonstrate that the proposed algorithm is effective for knowledge transfer and easily tunable. | 翻訳日:2021-03-19 10:44:40 公開日:2021-01-23 |
# 復元データ忠実度を用いた学習劣化画像分類 Learning degraded image classification with restoration data fidelity ( http://arxiv.org/abs/2101.09606v1 ) ライセンス: Link先を確認 | Xiaoyu Lin | (参考訳) 特に畳み込みニューラルネットワーク(cnn)を用いた学習ベースの手法は、画像分類から復元まで、コンピュータビジョンアプリケーションにおいて優れた性能を示している。
画像分類では、caltech-256やimagenetデータセットのような非常にクリーンな画像に焦点を当てている。
しかし、最も現実的なシナリオでは、取得した画像が劣化する可能性がある。
画像分類と復元タスクを組み合わせることで、劣化画像上のCNNに基づく分類ネットワークの性能を向上させることが重要かつ興味深い問題である。
本報告では,4つの分類ネットワークにおける劣化タイプとレベルの影響と,劣化の影響を解消するための復元ネットワークの利用について検討する。
また,事前学習した分類ネットワークで得られた画像の特徴を精度マップを用いて校正する手法を提案する。
提案手法は, 付加的な白色ガウス雑音(AWGN)を伴い, 劣化レベルが低く, 劣化レベルが低い場合には, 劣化した画像に対する再学習ネットワークよりも優れた性能を示す。
また,提案手法は分類網の異なるモデルに依存しない手法であることを示す。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。 Learning-based methods especially with convolutional neural networks (CNN) are continuously showing superior performance in computer vision applications, ranging from image classification to restoration. For image classification, most existing works focus on very clean images such as images in Caltech-256 and ImageNet datasets. However, in most realistic scenarios, the acquired images may suffer from degradation. One important and interesting problem is to combine image classification and restoration tasks to improve the performance of CNN-based classification networks on degraded images. In this report, we explore the influence of degradation types and levels on four widely-used classification networks, and the use of a restoration network to eliminate the degradation's influence. We also propose a novel method leveraging a fidelity map to calibrate the image features obtained by pre-trained classification networks. We empirically demonstrate that our proposed method consistently outperforms the pre-trained networks under all degradation levels and types with additive white Gaussian noise (AWGN), and it even outperforms the re-trained networks for degraded images under low degradation levels. We also show that the proposed method is a model-agnostic approach that benefits different classification networks. Our results reveal that the proposed method is a promising solution to mitigate the effect caused by image degradation. | 翻訳日:2021-03-19 10:43:51 公開日:2021-01-23 |
# サンプル効率のよい政策学習のための探索再考 Rethinking Exploration for Sample-Efficient Policy Learning ( http://arxiv.org/abs/2101.09458v1 ) ライセンス: Link先を確認 | William F. Whitney, Michael Bloesch, Jost Tobias Springenberg, Abbas Abdolmaleki, Martin Riedmiller | (参考訳) 制御のためのオフポリシー強化学習は、パフォーマンスとサンプル効率の面で大きな進歩を遂げた。
多くのタスクにおいて、現代の手法のサンプル効率は、ポリシー適合の困難さよりも、収集したデータの豊かさによって制限されていると提案する。
ボーナスベース探索 (BBE) ファミリーにおける探索手法が, サンプル効率のよい制御問題にあまり影響を与えていない理由について検討した。
3つの問題はBBEの適用性を制限している: 有限サンプルのバイアス、崩壊するボーナスへの緩やかな適応、そして目に見えない遷移に対する楽観性の欠如である。
本稿では,これらの制限に対処するため,ボーナスベースの探索レシピの変更を提案する。
UFOと呼ばれる結果のアルゴリズムは、有限サンプルに偏りのないポリシーを生成し、探索ボーナスの変化として高速適応し、新しい遷移に関して最適化する。
高速指向探査が制御のサンプル効率を向上させるための有望な方向であることを示す実験を含む。 Off-policy reinforcement learning for control has made great strides in terms of performance and sample efficiency. We suggest that for many tasks the sample efficiency of modern methods is now limited by the richness of the data collected rather than the difficulty of policy fitting. We examine the reasons that directed exploration methods in the bonus-based exploration (BBE) family have not been more influential in the sample efficient control problem. Three issues have limited the applicability of BBE: bias with finite samples, slow adaptation to decaying bonuses, and lack of optimism on unseen transitions. We propose modifications to the bonus-based exploration recipe to address each of these limitations. The resulting algorithm, which we call UFO, produces policies that are Unbiased with finite samples, Fast-adapting as the exploration bonus changes, and Optimistic with respect to new transitions. We include experiments showing that rapid directed exploration is a promising direction to improve sample efficiency for control. | 翻訳日:2021-03-19 10:43:05 公開日:2021-01-23 |
# 季節統合型オートエンコーダによる短期降水予測 Short-term daily precipitation forecasting with seasonally-integrated autoencoder ( http://arxiv.org/abs/2101.09509v1 ) ライセンス: Link先を確認 | Donlapark Ponnoprat | (参考訳) 短期間の降水予測は、個人の計画から都市管理、洪水予防まで、様々な規模の人間の活動計画に不可欠である。
しかし、短期的な大気力学は非常に非線形であり、古典的な時系列モデルでは容易に捉えられない。
一方で、ディープラーニングモデルは非線形相互作用の学習に長けているが、時系列の季節性を扱うように設計されていない。
本研究では,毎日の降水データに隠された非線形性を処理し,季節性を検出する予測モデルを開発することを目的としている。
そこで本研究では,2つのlong short-term memory (lstm)オートエンコーダからなる,季節的統合型オートエンコーダ (ssae) を提案する。
実験結果から,SSAEは気候によらず様々な時系列モデルに優れるだけでなく,他の深層学習モデルと比較して出力のばらつきも低いことがわかった。
また,ssaeの季節成分は,地平線1の4%から地平線3の37%までの予測値と実際の値との相関性の向上に寄与した。 Short-term precipitation forecasting is essential for planning of human activities in multiple scales, ranging from individuals' planning, urban management to flood prevention. Yet the short-term atmospheric dynamics are highly nonlinear that it cannot be easily captured with classical time series models. On the other hand, deep learning models are good at learning nonlinear interactions, but they are not designed to deal with the seasonality in time series. In this study, we aim to develop a forecasting model that can both handle the nonlinearities and detect the seasonality hidden within the daily precipitation data. To this end, we propose a seasonally-integrated autoencoder (SSAE) consisting of two long short-term memory (LSTM) autoencoders: one for learning short-term dynamics, and the other for learning the seasonality in the time series. Our experimental results show that not only does the SSAE outperform various time series models regardless of the climate type, but it also has low output variance compared to other deep learning models. The results also show that the seasonal component of the SSAE helped improve the correlation between the forecast and the actual values from 4% at horizon 1 to 37% at horizon 3. | 翻訳日:2021-03-19 10:42:51 公開日:2021-01-23 |
# 項拡散による回帰確率の予測:機械学習アプローチによる新しい証拠 Predicting Recession Probabilities Using Term Spreads: New Evidence from a Machine Learning Approach ( http://arxiv.org/abs/2101.09394v1 ) ライセンス: Link先を確認 | Jaehyuk Choi, Desheng Ge, Kyu Ho Kang, Sungbin Sohn | (参考訳) 利回り曲線を使って不況を予測する文献は、10年利と3カ月利回りの差として一般的にこの用語が広まるのを計測する。
さらに、スプレッドという用語を用いることで、長期と短期の金利はリセッション確率に同じ絶対的な影響を及ぼすことになる。
本研究では、利子率の予測能力が向上できるかどうかを調べるために、機械学習手法を採用する。
機械学習アルゴリズムは最適な成熟度ペアを特定し、利子率の効果を拡散した用語と区別する。
包括的実証実験の結果,予測誤差により,機械学習アプローチでは予測精度が著しく向上しないことがわかった。
従来から10年3カ月の国債利回り拡大を支えている。
これは、予測水平線、制御変数、サンプル周期、不況観測のオーバーサンプリングに対して堅牢である。 The literature on using yield curves to forecast recessions typically measures the term spread as the difference between the 10-year and the three-month Treasury rates. Furthermore, using the term spread constrains the long- and short-term interest rates to have the same absolute effect on the recession probability. In this study, we adopt a machine learning method to investigate whether the predictive ability of interest rates can be improved. The machine learning algorithm identifies the best maturity pair, separating the effects of interest rates from those of the term spread. Our comprehensive empirical exercise shows that, despite the likelihood gain, the machine learning approach does not significantly improve the predictive accuracy, owing to the estimation error. Our finding supports the conventional use of the 10-year--three-month Treasury yield spread. This is robust to the forecasting horizon, control variable, sample period, and oversampling of the recession observations. | 翻訳日:2021-03-19 10:42:30 公開日:2021-01-23 |
# ノイズサンプルの除去とハード画像の活用による細粒度画像認識へのweb画像の活用 Exploiting Web Images for Fine-Grained Visual Recognition by Eliminating Noisy Samples and Utilizing Hard Ones ( http://arxiv.org/abs/2101.09412v1 ) ライセンス: Link先を確認 | Huafeng Liu, Chuanyi Zhang, Yazhou Yao, Xiushen Wei, Fumin Shen, Jian Zhang, and Zhenmin Tang | (参考訳) 下位レベルにおけるオブジェクトのラベル付けは通常、専門家の知識を必要とする。
これにより,Web画像から直接の微粒化認識の学習が注目されている。
しかしながら,web画像におけるラベルノイズとハードサンプルの存在は,ロバストな細粒度認識モデルのトレーニングにおける2つの障害である。
そこで本稿では,実世界のweb画像から無関係なサンプルをトレーニング中に削除する手法を提案する。
したがって,提案手法は,無関係な web 画像やハードサンプルの有害な効果を軽減し,良好な性能を実現することができる。
3つの一般的なきめ細かなデータセットに関する広範囲な実験は、我々のアプローチが現在の最先端のweb教師付きメソッドよりはるかに優れていることを示している。 Labeling objects at a subordinate level typically requires expert knowledge, which is not always available when using random annotators. As such, learning directly from web images for fine-grained recognition has attracted broad attention. However, the presence of label noise and hard examples in web images are two obstacles for training robust fine-grained recognition models. Therefore, in this paper, we propose a novel approach for removing irrelevant samples from real-world web images during training, while employing useful hard examples to update the network. Thus, our approach can alleviate the harmful effects of irrelevant noisy web images and hard examples to achieve better performance. Extensive experiments on three commonly used fine-grained datasets demonstrate that our approach is far superior to current state-of-the-art web-supervised methods. | 翻訳日:2021-03-19 10:42:16 公開日:2021-01-23 |
# スライススペクトルを用いた全焦点スタックの深部アンチエイリアシング Deep Anti-aliasing of Whole Focal Stack Using its Slice Spectrum ( http://arxiv.org/abs/2101.09420v1 ) ライセンス: Link先を確認 | Yaning Li, Xue Wang, Guoqing Zhou, and Qing Wang | (参考訳) 本稿では,全焦点層間の一貫性を維持しつつ,スパース3次元光界から発生する焦点スタック全体のエイリアシング効果を除去し,まず焦点スタックスライスに埋め込まれた構造特性と対応する周波数領域表現,すなわち焦点スタックスペクトル(fss)について検討する。
また, FSS のエネルギー分布は, 異なる角度のサンプリング速度で常に同じ三角形領域内にあり, さらに, 点拡散関数 (PSF) の連続性は FSS に内在的に維持されている。
これらの2つの知見に基づいて,焦点スタック全体の除去を1回のエイリアス化するための学習ベースのFSS再構成手法を提案する。
さらに,新しい共役対称損失関数を最適化のために提案する。
従来の手法と比較すると,提案手法は明確な奥行き推定を回避し,大きな異質なシナリオに対処できる。
合成光場と実光場の両方における実験結果から,異なるシーンに対する提案手法の優位性と,様々な角度のサンプリングレートが示された。 The paper aims at removing the aliasing effects for the whole focal stack generated from a sparse 3D light field, while keeping the consistency across all the focal layers.We first explore the structural characteristics embedded in the focal stack slice and its corresponding frequency-domain representation, i.e., the focal stack spectrum (FSS). We also observe that the energy distribution of FSS always locates within the same triangular area under different angular sampling rates, additionally the continuity of point spread function (PSF) is intrinsically maintained in the FSS. Based on these two findings, we propose a learning-based FSS reconstruction approach for one-time aliasing removing over the whole focal stack. What's more, a novel conjugate-symmetric loss function is proposed for the optimization. Compared to previous works, our method avoids an explicit depth estimation, and can handle challenging large-disparity scenarios. Experimental results on both synthetic and real light field datasets show the superiority of the proposed approach for different scenes and various angular sampling rates. | 翻訳日:2021-03-19 10:42:02 公開日:2021-01-23 |
# トレーサビリティの概要:コンピューティングシステムにおける説明責任の運用原理 Outlining Traceability: A Principle for Operationalizing Accountability in Computing Systems ( http://arxiv.org/abs/2101.09385v1 ) ライセンス: Link先を確認 | Joshua A. Kroll | (参考訳) 説明責任はよく管理されたコンピュータシステムの目標として広く理解されており、多くのガバナンスの文脈において追求すべき価値である。
しかし、どうやって達成できるのか?
統治可能な人工知能システムの標準に関する最近の研究は、関連する原則であるトレーサビリティを提供する。
トレーサビリティは、システムの動作方法だけでなく、その生成方法や目的のために、システムが特別なダイナミクスや振る舞いを持つ理由を説明する方法を確立する必要がある。
システムがどのように構築され、システムが機械的に何をしたかの記録を、その機械的操作とそれを支える決定プロセスに対する人間の理解を強調する方法で、より広範なガバナンスの目標に結びつける。
トレーサビリティの原則が世界中のai原則やその他の政策文書で説明され、原則によって駆動されるソフトウェアシステムに関する一連の要件を抽出し、これらの要件を満たすために利用可能なテクノロジを体系化する様々な方法について検討する。
要件のマップからツール、テクニック、手順のサポートまで、トレーサビリティが必要とするものを実践者に提供するツールボックスから分離する必要があります。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイし、システムとその開発プロセスの規範的忠実性を改善する方法を示します。 Accountability is widely understood as a goal for well governed computer systems, and is a sought-after value in many governance contexts. But how can it be achieved? Recent work on standards for governable artificial intelligence systems offers a related principle: traceability. Traceability requires establishing not only how a system worked but how it was created and for what purpose, in a way that explains why a system has particular dynamics or behaviors. It connects records of how the system was constructed and what the system did mechanically to the broader goals of governance, in a way that highlights human understanding of that mechanical operation and the decision processes underlying it. We examine the various ways in which the principle of traceability has been articulated in AI principles and other policy documents from around the world, distill from these a set of requirements on software systems driven by the principle, and systematize the technologies available to meet those requirements. From our map of requirements to supporting tools, techniques, and procedures, we identify gaps and needs separating what traceability requires from the toolbox available for practitioners. This map reframes existing discussions around accountability and transparency, using the principle of traceability to show how, when, and why transparency can be deployed to serve accountability goals and thereby improve the normative fidelity of systems and their development processes. | 翻訳日:2021-03-19 10:41:28 公開日:2021-01-23 |
# 重み正規化によるスパース符号化変分オートエンコーダの訓練改善 Improved Training of Sparse Coding Variational Autoencoder via Weight Normalization ( http://arxiv.org/abs/2101.09453v1 ) ライセンス: Link先を確認 | Linxing Preston Jiang, Luciano de la Iglesia | (参考訳) まばらで構成的な特徴を持つ視覚情報の生成モデルを学ぶことは、理論神経科学と機械学習のコミュニティの両方にとって課題である。
スパースコーディングモデルは、スパースに活性化された潜在性表現を持つ哺乳類一次視覚野の受容野を説明することに成功している。
本稿では,最近提案されているsparse coding variational autoencoder (svae) (barello et al., 2018) に着目し,sveeのエンドツーエンドのトレーニング方式が,ノイズライクな受容領域に完全に最適化されていないデコードフィルタ群に繋がることを示す。
SVAEのトレーニングを改善するためのいくつかのヒューリスティックスを提案し、デコーダ上のユニット$L_2$ノルム制約がスパース符号化フィルタの作成に重要であることを示す。
このような正規化は、大脳皮質の局所的な側方抑制と見なすことができる。
我々は、この主張を自然画像パッチとMNISTデータセットの両方で実証的に検証し、ユニットノルムへのフィルタの投影がアクティブフィルタの数を大幅に増加させることを示す。
本研究では,データから疎表現を学習する上での重み正規化の重要性を強調し,VAE学習における不活性潜伏成分の削減方法を提案する。 Learning a generative model of visual information with sparse and compositional features has been a challenge for both theoretical neuroscience and machine learning communities. Sparse coding models have achieved great success in explaining the receptive fields of mammalian primary visual cortex with sparsely activated latent representation. In this paper, we focus on a recently proposed model, sparse coding variational autoencoder (SVAE) (Barello et al., 2018), and show that the end-to-end training scheme of SVAE leads to a large group of decoding filters not fully optimized with noise-like receptive fields. We propose a few heuristics to improve the training of SVAE and show that a unit $L_2$ norm constraint on the decoder is critical to produce sparse coding filters. Such normalization can be considered as local lateral inhibition in the cortex. We verify this claim empirically on both natural image patches and MNIST dataset and show that projection of the filters onto unit norm drastically increases the number of active filters. Our results highlight the importance of weight normalization for learning sparse representation from data and suggest a new way of reducing the number of inactive latent components in VAE learning. | 翻訳日:2021-03-19 10:41:01 公開日:2021-01-23 |
# MinConvNets: 乗算なしニューラルネットワークの新しいクラス MinConvNets: A new class of multiplication-less Neural Networks ( http://arxiv.org/abs/2101.09492v1 ) ライセンス: Link先を確認 | Xuecan Yang, Sumanta Chaudhuri, Laurence Likforman, Lirida Naviner | (参考訳) 畳み込みニューラルネットワークは、画像分類、認識、検出アプリケーションで前例のない成功を収めている。
しかし、組み込みデバイスへの大規模な展開は、いまだに巨大な計算要求、すなわち層当たり数百万のMAC操作によって制限されている。
本稿では、フォワード伝搬における乗算を最小コンパレータ演算によって近似するminconvnetについて述べる。
最小演算のハードウェア実装は乗算器よりもはるかに単純である。
まず,統計的相関に基づく近似演算を求める手法を提案する。
我々は、ある制約の下での前方伝播において、乗算器を最小演算で置き換えることができることを示す。
特徴と重みベクトルの 類似した平均と分散が与えられます
上記の制約を保証した修正トレーニング手法を提案する。
また、よく訓練された正確なCNNからの伝達学習を用いて、MinConvNetsの推論中に等価な精度が得られることを示す。 Convolutional Neural Networks have achieved unprecedented success in image classification, recognition, or detection applications. However, their large-scale deployment in embedded devices is still limited by the huge computational requirements, i.e., millions of MAC operations per layer. In this article, MinConvNets where the multiplications in the forward propagation are approximated by minimum comparator operations are introduced. Hardware implementation of minimum operation is much simpler than multipliers. Firstly, a methodology to find approximate operations based on statistical correlation is presented. We show that it is possible to replace multipliers by minimum operations in the forward propagation under certain constraints, i.e. given similar mean and variances of the feature and the weight vectors. A modified training method which guarantees the above constraints is proposed. And it is shown that equivalent precision can be achieved during inference with MinConvNets by using transfer learning from well trained exact CNNs. | 翻訳日:2021-03-19 10:40:37 公開日:2021-01-23 |
# 人間の意図推論のための不連続配列クラスタリング Disentangled Sequence Clustering for Human Intention Inference ( http://arxiv.org/abs/2101.09500v1 ) ライセンス: Link先を確認 | Mark Zolotas, Yiannis Demiris | (参考訳) ロボットに人間の意図を推測する能力を備えることは、効果的なコラボレーションにとって重要な前提条件である。
この目的へのほとんどの計算的アプローチは、ロボットの知覚状態に基づく「意図的」な条件の分布を回復するために確率論的推論を用いる。
しかしながら、これらのアプローチは通常、人間の意図(例えば、タスク固有の概念)を仮定する。
ラベル付きゴール)は先験として知られている。
この制約を克服するために,このような意図の分布を教師なしで学習できるクラスタリングフレームワークであるdisentangled sequence clustering variational autoencoder (discvae)を提案する。
DiSCVAEは、教師なし学習の最近の進歩を活用して、時系列データの非絡み合った潜在表現を導き、時間変化の局所的な特徴を時間不変のグローバルな側面から分離する。
従来のアンタングルメントのフレームワークとは異なり、提案された変種は離散変数を推論して潜在混合モデルを形成し、グローバルシーケンスの概念のクラスタリングを可能にする。
観察された人間の行動からの意図。
そこで本研究では,まず2dアニメーションを用いたビデオデータセットを用いて,ラベルなしシーケンスからクラスを探索する能力を検証する。
次に,ロボット車椅子を用いた実世界ロボットインタラクション実験の結果を報告する。
本研究は,推定された離散変数が人間の意図とどのように一致するかに関する知見を収集し,共有制御などの協調的な設定における支援の改善に寄与することを示す。 Equipping robots with the ability to infer human intent is a vital precondition for effective collaboration. Most computational approaches towards this objective employ probabilistic reasoning to recover a distribution of "intent" conditioned on the robot's perceived sensory state. However, these approaches typically assume task-specific notions of human intent (e.g. labelled goals) are known a priori. To overcome this constraint, we propose the Disentangled Sequence Clustering Variational Autoencoder (DiSCVAE), a clustering framework that can be used to learn such a distribution of intent in an unsupervised manner. The DiSCVAE leverages recent advances in unsupervised learning to derive a disentangled latent representation of sequential data, separating time-varying local features from time-invariant global aspects. Though unlike previous frameworks for disentanglement, the proposed variant also infers a discrete variable to form a latent mixture model and enable clustering of global sequence concepts, e.g. intentions from observed human behaviour. To evaluate the DiSCVAE, we first validate its capacity to discover classes from unlabelled sequences using video datasets of bouncing digits and 2D animations. We then report results from a real-world human-robot interaction experiment conducted on a robotic wheelchair. Our findings glean insights into how the inferred discrete variable coincides with human intent and thus serves to improve assistance in collaborative settings, such as shared control. | 翻訳日:2021-03-19 10:40:23 公開日:2021-01-23 |
# Doppelganger グラフの生成 - 組み立ては可能だが決定性 Generating a Doppelganger Graph: Resembling but Distinct ( http://arxiv.org/abs/2101.09593v1 ) ライセンス: Link先を確認 | Yuliang Ji, Ru Huang, Jie Chen, Yuanzhe Xi | (参考訳) 深層生成モデルは、その開始以来、新しく知覚的に現実的な信号(画像や音波など)を生成する能力がますます高まっている。
グラフ構造化データの深いモデルが出現すると、自然の興味はグラフのこれらの生成モデルの拡張を求める。
成功した拡張は、最近、グラフの集合(例えば、タンパク質データバンク)から学習する場合に見られたが、単一のグラフからの学習はほとんど調査されていない。
しかし、後者のケースは実際には重要である。
例えば、金融や医療システムのグラフには、公開アクセシビリティーがほぼ不可能なほど多くの機密情報が含まれているが、これらの分野のオープンサイエンスは、類似したデータがベンチマークに利用可能である場合にのみ前進することができる。
本研究では,多くのグラフ特性において与えられたグラフに類似するドッペルガンガーグラフを生成するアプローチを提案するが,しかしながら,ほぼゼロのエッジ重なりという意味で,元のグラフをリバースエンジニアリングするためにはほとんど利用できない。
このアプローチは、グラフ表現学習、生成的敵ネットワーク、およびグラフ実現アルゴリズムのオーケストレーションである。
複数のグラフ生成モデル(ニューラルネットワークによってパラメータ化されるかどうかに関わらず)との比較により、この結果が与えられたグラフをほとんど再現しないが、その性質に密接に一致することを証明した。
さらに,生成されたグラフ上のノード分類などのダウンストリームタスクが,元のグラフと同等の性能に達することを示す。 Deep generative models, since their inception, have become increasingly more capable of generating novel and perceptually realistic signals (e.g., images and sound waves). With the emergence of deep models for graph structured data, natural interests seek extensions of these generative models for graphs. Successful extensions were seen recently in the case of learning from a collection of graphs (e.g., protein data banks), but the learning from a single graph has been largely under explored. The latter case, however, is important in practice. For example, graphs in financial and healthcare systems contain so much confidential information that their public accessibility is nearly impossible, but open science in these fields can only advance when similar data are available for benchmarking. In this work, we propose an approach to generating a doppelganger graph that resembles a given one in many graph properties but nonetheless can hardly be used to reverse engineer the original one, in the sense of a near zero edge overlap. The approach is an orchestration of graph representation learning, generative adversarial networks, and graph realization algorithms. Through comparison with several graph generative models (either parameterized by neural networks or not), we demonstrate that our result barely reproduces the given graph but closely matches its properties. We further show that downstream tasks, such as node classification, on the generated graphs reach similar performance to the use of the original ones. | 翻訳日:2021-03-19 10:39:58 公開日:2021-01-23 |
# 離散ファイバーネットワークデータを用いたニューラルネットワークによるフィブリンの力学特性予測 Predicting the Mechanical Properties of Fibrin Using Neural Networks Trained on Discrete Fiber Network Data ( http://arxiv.org/abs/2101.11712v1 ) ライセンス: Link先を確認 | Yue Leng, Sarah Calve, Adrian Buganza Tepole | (参考訳) フィブリンは創傷治癒や血栓形成などのプロセスのための構造タンパク質キーである。
マクロスケールでは、フィブリンはゲルを形成し、マイクロスケールファイバーネットワークのメカニズムによって引き起こされる機械的応答を持つ。
したがって、マイクロスケールの離散ファイバーネットワークを明示的にモデル化する代表体積要素(RVE)を用いて、フィブリンゲルの正確な記述を行うことができる。
しかし、これらのRVEモデルは、マルチスケール結合の課題や計算要求のために、マクロスケールを効率的にモデル化することはできない。
本稿では,完全結合型人工ニューラルネットワーク(fcnn)を用いて,rveモデルの挙動を効率的に把握する手法を提案する。
fcnnは121の2軸変形を受ける1100のファイバーネットワークで訓練された。
RVEからの応力データは, 繊維の総エネルギーと周囲マトリックスの非圧縮性の条件とともに, 変形不変量に関して未知のひずみエネルギー関数の導関数を決定するために利用した。
訓練中、損失関数はひずみエネルギー関数の凸性とヘッセンの対称性を保証するために修正された。
一般的なFCNNモデルは、ソフトウェアAbaqusのユーザマテリアルサブルーチン(UMAT)にコード化された。
UMATの実装は、任意のFCNNの構造とパラメータを入力ファイルから材料パラメータとして取り込む。
FCNNへの入力は、変形の最初の2つの等方的不変量を含む。
fcnnはイソコリック不変量に関してひずみエネルギーの導関数を出力する。
本研究では, 離散ファイバネットワークデータを用いたfcnnを用いて, umatを用いたフィブリンゲルの有限要素シミュレーションを行った。
この研究により、機械学習ツールと計算力学のさらなる統合が期待できる。
マルチスケール構造を特徴とする生体材料の計算モデリングも改善する。 Fibrin is a structural protein key for processes such as wound healing and thrombus formation. At the macroscale, fibrin forms a gel and has a mechanical response that is dictated by the mechanics of a microscale fiber network. Hence, accurate description of fibrin gels can be achieved using representative volume elements (RVE) that explicitly model the discrete fiber networks of the microscale. These RVE models, however, cannot be efficiently used to model the macroscale due to the challenges and computational demands of multiscale coupling. Here, we propose the use of an artificial, fully connected neural network (FCNN) to efficiently capture the behavior of the RVE models. The FCNN was trained on 1100 fiber networks subjected to 121 biaxial deformations. The stress data from the RVE, together with the total energy on the fibers and the condition of incompressibility of the surrounding matrix, were used to determine the derivatives of an unknown strain energy function with respect to the deformation invariants. During training, the loss function was modified to ensure convexity of the strain energy function and symmetry of its Hessian. A general FCNN model was coded into a user material subroutine (UMAT) in the software Abaqus. The UMAT implementation takes in the structure and parameters of an arbitrary FCNN as material parameters from the input file. The inputs to the FCNN include the first two isochoric invariants of the deformation. The FCNN outputs the derivatives of the strain energy with respect to the isochoric invariants. In this work, the FCNN trained on the discrete fiber network data was used in finite element simulations of fibrin gels using our UMAT. We anticipate that this work will enable further integration of machine learning tools with computational mechanics. It will also improve computational modeling of biological materials characterized by a multiscale structure. | 翻訳日:2021-03-19 10:39:00 公開日:2021-01-23 |