このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20210822となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 短絡から断熱への高速量子パーセプトロン Speed-up Quantum Perceptron via Shortcuts to Adiabaticity ( http://arxiv.org/abs/2003.09938v3 ) ライセンス: Link先を確認 | Yue Ban, Xi Chen, E. Torrontegui, E. Solano and J. Casanova | (参考訳) 量子パーセプトロンは量子機械学習の基本的な構成要素である。
これは、状態重畳や絡み合いのような量子コンピューティングの能力を古典的な機械学習スキームに組み込む多分野分野である。
短絡から断熱への技法を応用して, パーセプトロン上の制御場を逆エンジニアリングし, シグモイド活性化関数による高速非線形応答を導出する高速化量子パーセプトロンを提案する。
これにより、準アディアバティックプロトコルに比べてパーセプトロン性能が向上し、制御の不完全性に対する堅牢性が向上する。 The quantum perceptron is a fundamental building block for quantum machine learning. This is a multidisciplinary field that incorporates abilities of quantum computing, such as state superposition and entanglement, to classical machine learning schemes. Motivated by the techniques of shortcuts to adiabaticity, we propose a speed-up quantum perceptron where a control field on the perceptron is inversely engineered leading to a rapid nonlinear response with a sigmoid activation function. This results in faster overall perceptron performance compared to quasi-adiabatic protocols, as well as in enhanced robustness against imperfections in the controls. | 翻訳日:2023-05-28 11:33:39 公開日:2021-08-22 |
# 平均二体相関から非線形多体ベルの不等式を推定する:任意スピン-jアンサンブルの体系的アプローチ Inferring Nonlinear Many-Body Bell Inequalities From Average Two-Body Correlations: Systematic Approach for Arbitrary Spin-j Ensembles ( http://arxiv.org/abs/2012.08474v4 ) ライセンス: Link先を確認 | Guillem M\"uller-Rigat, Albert Aloy, Maciej Lewenstein and Ir\'en\'ee Fr\'erot | (参考訳) ベルの不等式(bis)に違反することで、デバイスに依存しない方法で、最小の仮定から絡み合った状態の準備を証明できる。
しかし、現在の量子コンピュータやシミュレータで準備された多体相関に合わせたbisを見つけることは、非常に難しい試みである。
本研究では,システムにおける非常に粗い特徴に違反するbisに着目した。
2アウトカム測定では、この形の特定のBIは理論上、実験的に研究されてきたが、これらのBIをすべて明示的にテストすることは事実上不可能である。
データ駆動型メソッド – 違反したBIをデータ自身から再構築する – が検討されている。
そこで,統計物理学に着想を得て,このような粗粒データに特化した新しいデータ駆動手法を開発した。
私たちのアプローチは、既存の文献よりも2つの大きな改善をもたらします。
1) 結果及び設定の何れかを直接的に設計する。
2) 得られたbisはデータに二次的であり, 実験に必要な精度に根本的なスケーリングの利点をもたらす。
この非常に柔軟な手法は、複雑性がシステムサイズに比例しないため、量子スピン-1/2$のアンサンブルによって強固に破られたベルの不等式を体系的に改善し、ベルの不等式の新しい族を発見し、スピンスキーズ状態と任意のスピン-j$アンサンブルの多体スピン一重項を見つけることができる。 Violating Bell's inequalities (BIs) allows one to certify the preparation of entangled states from minimal assumptions -- in a device-independent manner. Finding BIs tailored to many-body correlations as prepared in present-day quantum computers and simulators is however a highly challenging endeavour. In this work, we focus on BIs violated by very coarse-grain features of the system: two-body correlations averaged over all permutations of the parties. For two-outcomes measurements, specific BIs of this form have been theoretically and experimentally studied in the past, but it is practically impossible to explicitly test all such BIs. Data-driven methods -- reconstructing a violated BI from the data themselves -- have therefore been considered. Here, inspired by statistical physics, we develop a novel data-driven approach specifically tailored to such coarse-grain data. Our approach offers two main improvements over the existing literature: 1) it is directly designed for any number of outcomes and settings; 2) the obtained BIs are quadratic in the data, offering a fundamental scaling advantage for the precision required in experiments. This very flexible method, whose complexity does not scale with the system size, allows us to systematically improve over all previously-known Bell's inequalities robustly violated by ensembles of quantum spin-$1/2$; and to discover novel families of Bell's inequalities, tailored to spin-squeezed states and many-body spin singlets of arbitrary spin-$j$ ensembles. | 翻訳日:2023-04-20 18:54:55 公開日:2021-08-22 |
# トポロジカル擬似エントロピー Topological pseudo entropy ( http://arxiv.org/abs/2107.01797v2 ) ライセンス: Link先を確認 | Tatsuma Nishioka, Tadashi Takayanagi, Yusuke Taki | (参考訳) トポロジカル擬似エントロピーと呼ばれるトポロジカルエントロピーの擬似エントロピー拡張を導入する。
トポロジカル擬エントロピーの様々な例は、ウィルソンループ挿入を伴う3次元チャーン・サイモンズゲージ理論で調べられる。
結び目ウィルソンループを持つ分割関数は位相的擬(r\'enyi)エントロピーに直接関係している。
また、あるセットアップにおける擬似エントロピーは、二次元共形場理論(CFT)における界面エントロピーと等価であることを示し、その等価性を利用して、特に例における擬似エントロピーを計算する。
さらに,2次元境界cftにおける左右の絡み合いエントロピーの擬エントロピー拡大を定義し,任意の境界状態の対に対する普遍公式を導出する。
副産物として、有理CFTに対する位相的界面エントロピーはトーラス上のトポロジ的絡み合いエントロピーと同一の寄与を持つ。 We introduce a pseudo entropy extension of topological entanglement entropy called topological pseudo entropy. Various examples of the topological pseudo entropies are examined in three-dimensional Chern-Simons gauge theory with Wilson loop insertions. Partition functions with knotted Wilson loops are directly related to topological pseudo (R\'enyi) entropies. We also show that the pseudo entropy in a certain setup is equivalent to the interface entropy in two-dimensional conformal field theories (CFTs), and leverage the equivalence to calculate the pseudo entropies in particular examples. Furthermore, we define a pseudo entropy extension of the left-right entanglement entropy in two-dimensional boundary CFTs and derive a universal formula for a pair of arbitrary boundary states. As a byproduct, we find that the topological interface entropy for rational CFTs has a contribution identical to the topological entanglement entropy on a torus. | 翻訳日:2023-03-23 09:15:54 公開日:2021-08-22 |
# ITアナリストとエンドユーザー」の直交関係の再構築:カメルーンにおける標準指標の実装を事例として Deconstructing the Dichotomous Relationship Between "IT analysts and End-users": A Case of Implementing Standard Indicators in Cameroon ( http://arxiv.org/abs/2108.09724v1 ) ライセンス: Link先を確認 | Flora Asah and Jens Kaasboll | (参考訳) diff\'erance と suppl\'ement は言語をテキストで分析するためのポスト構造主義的な概念であり、ジャック・デリダの作品と最も関連がある。
カメルーンにおける標準健康指標導入後の調査結果は、周辺レベルのスタッフは、実施過程における参加の欠如、周辺レベルのスタッフと中央レベルのITスタッフの緊張関係など、複数の課題に遭遇し、システムの使用が不可能になることを示している。
根本原因を理解するためにデコンストラクションを用い,itプロフェッショナルとエンドユーザが支配関係に埋め込まれていることを明らかにする。
つまり、ITプロフェッショナルはエンドユーザーから遠ざかっており、エンドユーザはITプロフェッショナルのsuppl'ementです。
エンドユーザは補足的なものとして描かれるが、システムを管理することは矛盾する。
これにより、ITプロフェッショナルはエンドユーザよりも特権と権限を持つようになりました。
この二項関係は、組織構造の派生である。
IT専門家を責任者とし、エンドユーザーに対して権限を持つという考えは、対立の道のりである。
結論として,意思決定を集中的に行う組織構造は,紛争の根幹であり,現地のキャパシティの構築と周辺部でのインフラ整備支援の障害となっている。 Diff\'erance and suppl\'ement are post-structuralist concepts for analyzing language in text and are most often associated with the work of Jacque Derrida. The findings after the implementation of standard health indicators in Cameroon show that staff at the peripheral level encounter multiple challenges, including lack of participation during the implementation process, and tension between staff at the peripheral level and IT staff at the central level, which result in non-use of the system. We use deconstruction to understand the root cause and the findings reveal that IT professionals and end-users are embedded in a relation of domination. That is, IT professionals are diff\'erance from end-users and end-users are suppl\'ement of IT professionals. Although end-users are portrayed as supplementary, they are supposed to manage the system, which is contradictory. This led to IT professionals having more privilege and authority over end-users. This dichotomous relation is a derivative of the organizational structure. The notion of portraying IT professionals in charge and having more authority over end-users is an avenue for conflict. The paper concludes that a HIS organizational structure where decision-making is centralized is a ground for conflict and a major roadblock of building local capacity and providing infrastructural support at the peripheral. | 翻訳日:2023-03-17 19:20:18 公開日:2021-08-22 |
# データ活用と参加行動の改善とデータ活用を支援する設計:ルワンダにおけるDHIS2の事例 Improving Data Use and Participatory Action and Design to Support Data Use: The Case of DHIS2 in Rwanda ( http://arxiv.org/abs/2108.09721v1 ) ライセンス: Link先を確認 | Scott Russpatrick, Magnus Li, J{\o}rn Braa, Alexander Bruland, Mikael Olsen Rodvelt, Andrew Muhire, Adolphe Kamungunga, Kai Vandivier, Silvia Masiero, Peichun Wu, Peter Biro and Stian Rustad | (参考訳) 本稿では,現在進行中のルワンダにおける「改善のための評価」活動研究および参加型設計プロジェクトから報告する。データ利用実践の改善と,オープンソースの健康情報管理プラットフォームであるdistrict health information software 2(dhis2)の機能向上を目標とし,データ利用を支援する。
医療施設や地域レベルでのデータ使用について調査したところ、月次調整ミーティングなどでデータが日常的に使用される一方で、DHIS2ダッシュボードやその他の分析ツールが限定的に使用されていた。
このような発見を踏まえて、プロジェクトの主要な焦点は、データ利用プラクティスとソフトウェアプラットフォームにおける欠点を特定し、変更の提案、設計、そして最終的に実装することである。
新型コロナウイルス(COVID-19)のパンデミックにより、改善を実施する実践的な作業は遅かったが、設計改善の提案には、グローバルコアのDHIS2ソフトウェアチーム、国のDHIS2チーム、地方アプリ開発、ルワンダ保健省、地方レベルの医療従事者など、多くのレベルのシステム設計と参加が含まれる。 This article reports from an ongoing 'evaluation for improvement' action research and participatory design project in Rwanda, where the aim is to improve data use practices and the capabilities of the District Health Information Software 2 (DHIS2), an open source health information management platform, to support data use. The study of data use at health facility and district level showed that while data was used routinely at, for example, monthly coordination meetings, the DHIS2 dashboards and other analytical tools were in limited use because users preferred to use Microsoft Excel for data analysis and use. Given such findings, a major focus of the project has been directed towards identifying shortcomings in data use practices and in the software platform and to suggest, design and eventually implement changes. While the practical work on implementing improvements have been slow due to the COVID-19 pandemic, the suggested design improvements involve many levels of system design and participation, from the global core DHIS2 software team, the country DHIS2 team and local app development, the Rwanda Ministry of Health, and health workers at local level. | 翻訳日:2023-03-17 19:19:56 公開日:2021-08-22 |
# 新型コロナウイルス(covid-19)に対するデジタルレジリエンス: 世界的パンデミックのショックから国民デジタルヘルスシステムが跳ね返るモデル Digital Resilience to Covid-19: A Model for National Digital Health Systems to Bounce Forward From the Shock of a Global Pandemic ( http://arxiv.org/abs/2108.09720v1 ) ライセンス: Link先を確認 | Scott Russpatrick, Johan S{\ae}b{\o}, Eric Monteiro, Brian Nicholson and Terje Sanner | (参考訳) 新型コロナウイルス(covid-19)は、世界的な医療システムにとって大きなショックとなった。
世界的な2カ国における新型コロナウイルス(covid-19)パンデミック(covid-19)によるデータ需要に対応するデジタル情報システムのレジリエンスについて報告する。
ディジタルレジリエンスが現状のバウンスバックやメンテナンスを可能にする支配的な観点とは対照的に,5つのバウンスフォワードレジリエンス前提条件を識別する。
(i)分散トレーニング
(ii)地方専門知識
三 地方自治及び所有権
(iv)地方インフラ及び
(v)プラットフォーム設計基盤。
これらの前提条件により、covid-19のような外部ショックに直面した場合、事前ショック状態を超えて情報システムのバウンドや強化を行うことができるようなレジリエンスが高まる。 COVID-19 represented a major shock to global health systems, not the least to resource-challenged regions in the Global South. We report on a case of digital, information system resilience in the response to data needs from the COVID-19 pandemic in two countries in the Global South. In contrast to dominant perspectives where digital resilience enables bounce back or maintenance of a status quo, we identify five bounce forward resilience preconditions (i) distributed training, (ii) local expertise (iii) local autonomy and ownership (iv) local infrastructure and (v) platform design infrastructure. These preconditions enable an elevated degree of resilience that in the face of an external shock such as COVID-19 can deliver a bounce forward or strengthening of the information system beyond its pre-shock state. | 翻訳日:2023-03-17 19:19:31 公開日:2021-08-22 |
# デジタルグローバル公共財 Digital Global Public Goods ( http://arxiv.org/abs/2108.09718v1 ) ライセンス: Link先を確認 | Johan Ivar S{\ae}b{\o}, Brian Nicholson, Petter Nielsen and Sundeep Sahay | (参考訳) 本研究の目的は,デジタルグローバル・パブリック・グッズ(DGPG)を定義し,概念化し,ICT4Dプロジェクトにおける文脈関連性の重要性を明らかにすることである。
近年の研究では、公共財の特質を持つデジタルアーティファクトの重要性を考察し、社会経済発展の大きな可能性を強調している。
しかし、そのような工芸品の公共財特性を整合させて、それらが実施されている文脈における関連性を生み出す方法に関する理論的・実践的な側面はほとんど分かっていない。
このギャップに対処するために、まず文献をレビューし、dgpgsの定義と概念的な基礎を開発し、その関連の重要性を説明する。
本図は、地域保健情報システム(DHIS2)の事例研究から得られたものである。
本稿では,開発プロセスにおけるDSGの理論的および実践的理解を前進させる。 The purpose of this paper is to define and conceptualize digital global public goods (DGPGs) and illustrate the importance of contextual relevance in ICT4D projects. Recent studies have examined the importance of digital artefacts with public goods traits, emphasizing the significant potential for socio-economic development. However, we know little about the theoretical and practical dimensions of how we can align the public goods traits of such artefacts to create relevance in the context they are implemented. To address this gap we review the literature firstly to develop a definition and conceptual basis of DGPGs and then to illustrate the importance of relevance: how to align DGPGs with context to meet local needs. The illustration draws from a case study of the District Health Information systems (DHIS2). The paper advances both the theoretical and practical understanding of DPGs in development processes. | 翻訳日:2023-03-17 19:19:08 公開日:2021-08-22 |
# resilient ict4d:パンデミック時代のコミュニティの構築と維持 Resilient ICT4D: Building and Sustaining our Community in Pandemic Times ( http://arxiv.org/abs/2108.09712v1 ) ライセンス: Link先を確認 | Silvia Masiero and Petter Nielsen | (参考訳) 新型コロナウイルス(COVID-19)のパンデミックの影響、不当な影響、既存の不平等の深化(Dreze、2020年、Qureshi、2021年)は、IFIPワーキンググループ9.4が時間とともに取り扱ってきた情報・デジタル技術の意義について、全く同じ「開発」プロセスに関心を持っている。
世界的な発展パラダイム(Oldekop et al., 2020)は、ICT4D研究を常に特徴付けてきたICT(Walsham, 2012)と「より良い世界を作る」という精神に新たな意味を抱き、危機のグローバルな性質に応えて登場した。
このような新しい意味は、データフィフテッド・ソサエティ(milan & trere, 2020)の第1次パンデミック(milan & trere, 2020)の状況において、パンデミック内のマージン(milan et al., 2021)からの物語のサイレンシング(silencing of narratives from the margins in the pandemic, milan et al.)という用語で、我々の研究を文脈的に捉えている。 The impacts of the COVID-19 pandemic, disproportionally affecting vulnerable people and deepening pre-existing inequalities (Dreze, 2020; Qureshi, 2021), have interested the very same "development" processes that the IFIP Working Group 9.4 on the Implications of Information and Digital Technologies for Development has dealt with over time. A global development paradigm (Oldekop et al., 2020) has emerged in response to the global nature of the crisis, infusing new meaning in the spirit of "making a better world" with ICTs (Walsham, 2012) that always have characterised ICT4D research. Such a new meaning contextualises our research in the landscape of the first pandemic of the datafied society (Milan & Trere, 2020), coming to terms with the silencing of narratives from the margins within the pandemic (Milan et al., 2021) - in Qureshi's (2021) words, a "pandemics within the pandemic" producing new socio-economic inequities in a state of global emergency. | 翻訳日:2023-03-17 19:18:52 公開日:2021-08-22 |
# 非エルミートナノキャビティアレイにおけるゼロモードの直接観察 Direct observation of zero modes in a non-Hermitian nanocavity array ( http://arxiv.org/abs/2108.09672v1 ) ライセンス: Link先を確認 | Flore Hentinger, Melissa Hedir, Bruno Garbin, Mathias Marconi, Li Ge, Fabrice Raineri, Ariel Levenson, and Alejandro M. Yacomotti | (参考訳) ゼロモードはエネルギー固有値がゼロの実部を持つ対称性保護モードである。
エルミートアレイにおいて、それらは部分格子対称性の結果として生じ、それらがダークモードであることを暗示する。
自然にゲイン/ロス光学キャビティに現れる非エルミート系では、粒子-ホール対称性が支配的であり、結果として生じる零モードはもはや暗くはないが、隣接するキャビティ間では${\pi}/2$の位相がジャンプする。
本稿では、量子井戸を含む非エルミート3結合フォトニック結晶ナノキャビティアレイにおけるゼロモードの直接観察について報告する。
エルミティアンモードとは異なり、非エルミティアンゼロモードは小さな亜格子デチューニングでしか観測できず、選択されたポンプ位置での遠視野イメージングとスペクトルフィルタリングによって識別することができる。
ゼロモード結合を小カップリングのパリティ時間相転移として説明する。
これらのゼロモードは結合障害に対して堅牢であり、レーザーモード工学やフォトニックコンピューティングに使用できる。 Zero modes are symmetry protected ones whose energy eigenvalues have zero real parts. In Hermitian arrays, they arise as a consequence of the sublattice symmetry, implying that they are dark modes. In non-Hermitian systems, that naturally emerge in gain/loss optical cavities, particle-hole symmetry prevails instead; the resulting zero modes are no longer dark but feature ${\pi}/2$ phase jumps between adjacent cavities. Here we report on the direct observation of zero modes in a non-Hermitian three coupled photonic crystal nanocavity array containing quantum wells. Unlike the Hermitian counterparts, the non-Hermitian zero modes can only be observed for small sublattice detuning, and they can be identified through far-field imaging and spectral filtering of the photoluminescence at selected pump locations. We explain the zero mode coalescence as a parity-time phase transition for small coupling. These zero modes are robust against coupling disorder, and can be used for laser mode engineering and photonic computing. | 翻訳日:2023-03-17 19:18:25 公開日:2021-08-22 |
# 発展の探求--ソーシャルメディアの政治権力が政治的「フラックジャケット」に遭遇したとき The Quest for Development: When Social Media-Brokered Political Power Encounters Political 'Flak Jackets' ( http://arxiv.org/abs/2108.09741v1 ) ライセンス: Link先を確認 | Boluwatife Ajibola | (参考訳) ソーシャルメディアは集団行動のための拡張スペースを提供し、netizensはそれをクレーム作成のツールとして活用し、ガバナンスの配当を要求する。
しかし、政治政権はしばしば検閲によるソーシャルメディアの利用の拡大を歓迎し、特に開発成果の追求において、ネット市民はしばしば反対する。
ソーシャルメディアの活用を幅広く研究してきた既存の研究は、その大きな獲得を示唆する特徴と、それが政治権力の探求とどのように交わるかは、十分に文書化されていない。
本稿は、ソーシャルメディアが「デジタル弾丸」の乗算を、政治的政権の防衛線を侵食する「ツイート」や「疑わしいコメント」の形で高速化し、比喩的な「フレークジャケット」としての検閲の獲得によって特徴付けられることを論じる。
本研究は、2015年にナイジェリアの政権が発足して以来、ナイジェリアにおけるソーシャルメディア検閲に対する声による重要なインフォメーションインタビューに基づいて行われており、特に2019年の「インターネットの虚偽および操作法からの保護」が提案されている。 Social media provides an extended space for collective action, as netizens leverage it as a tool for claim-making and for demanding the dividends of governance. However, political regimes often greet expanding use of social media with censorship, which netizens often have to contend with, particularly in the quest for development outcomes. While existing studies having expansively explored multiple uses of social media, the specific features that signal their massive uptake and how this intersects with the quest for political power has not been substantially documented. This paper argues that social media is characterized by social buttons that expedite the multiplication of 'digital bullets' - in forms of tweets and perceived detestable comments - which compromise the defense lines of political regimes, hence, their uptake of censorship as metaphorical 'flak jackets'. This research is conducted on the basis of key informant interviews with voices against social media censorship in Nigeria since the inception of Nigeria's ruling government in 2015, particularly following the proposed 'Protection from Internet Falsehood and Manipulations Bill' in 2019. | 翻訳日:2023-03-17 19:14:13 公開日:2021-08-22 |
# ナイジェリアの起業家生態系におけるスタートアップの創発を特徴付ける多次元イベントの探索 Exploring Multi-Dimensional Events Characterizing Tech Start-Up Emergence in the Nigerian Entrepreneurial Ecosystem ( http://arxiv.org/abs/2108.09739v1 ) ライセンス: Link先を確認 | Emanuel Okoro Ajah and Chidi Ononiwu | (参考訳) 世界のほとんどの国は、テクノロジーベースのスタートアップを雇用創出、経済成長、国家発展の原動力としており、コビッド19のようなパンデミックの危機における経済の安定のための重要なツールだと考えている。
しかし、その出現は問題視されている。
特にナイジェリアのような発展途上国では、テクノロジースタートアップの創業者たちはさまざまな制約や環境の不確実性に直面している。
現代の文献では、テクノロジースタートアップの出現を説明するために研究が行われている。
しかし、そのような研究は、テクノロジースタートアップの出現に決定要因となる発見と、独立して研究されたいくつかの決定要因、線形および一次元イベントとしての出現によって断片化されている。
その結果、テクノロジースタートアップの出現を特徴付けるイベントの次元を集約する多次元視点を無視する。
オープンで不確実で非線形でダイナミックな環境でアクティビティベースの製品やサービスを開発するための、テックスタートアップの反復的でイベントベースのプロセス、インタラクティブな性質を考えると、テクノロジースタートアップの出現についてはほとんど知られていない、と私たちは主張する。
このように、総合文献レビュー、アクティビティ理論、探索的ケーススタディデザインから、機会発見と選択、チーム形成とドメインコンセンサス、ブートストラップ、最小限実行可能な製品開発と市場実験フィードバックをナイジェリアのテックスタートアップエコシステムにおける技術スタートアップの出現を構成する相互依存型多次元イベントとして特定する。 Most countries across the globe identify technology-based start-ups as a driving force for job creation, economic growth and national development, and a critical tool for economic sustenance during pandemic crises like covid-19. However, its emergence are been argued to be problematic. Especially in a developing economy like Nigeria, where tech start-up founders are faced with diverse form of constraints and environmental uncertainties. Extant literature indicated that studies are been conducted to explain tech start-up emergence. However, such studies are fragmented with findings that are determinants to tech start-up emergence, with several determinants studied in isolation, and the emergence as linear and unidimensional events. Consequently, neglecting multi-dimensional perspective, which aggregate the dimensions of events characterizing tech start-up emergence. Given the iterative, event-based process, and interactive-dependent nature of tech start-up ventures to create activity-based products/services in an open, uncertain, nonlinear and dynamic environment, we argue that little are been known about tech start-up emergence. Thus, by drawing from synthesize literature review, activity theory, and exploratory case study design we identify opportunity discovery and selection; team formation and domain consensus; bootstrapping; minimum viable product development and market experimentation feedback as interdependent multi-dimensional events constituting tech start-up emergence in Nigerian tech start-up ecosystem. | 翻訳日:2023-03-17 19:13:52 公開日:2021-08-22 |
# インドネシアのDKIジャカルタにおけるエグゼクティブ・インフォメーション・システムの適用例 Application of Executive Information System for COVID-19 Reporting System and Management: An Example from DKI Jakarta, Indonesia ( http://arxiv.org/abs/2108.09738v1 ) ライセンス: Link先を確認 | Verry Adrian, Intan Rachmita Sari and Hardya Gustada Hikmahrachim | (参考訳) インドネシアなどの発展途上国ではSARS CoV-2感染と感染が問題となっている。
情報システムが欠如しているため、県はsars cov-2感染の監視に関連する情報システムの開発に革新を行なわなければならない。
ジャカルタ保健省は、COVID-19 ReportingのExecutive Information System(EIS)と呼ばれるデータ管理システムを構築した。
EISは、現在の疫学的分析が正確であるように、実際のデータを提供することを目的としている。
EISの主な考え方は、ステークホルダーに有効かつ実際の情報を提供することであり、ダッシュボードの形式で提示できる。
EISは、迅速な監視のためにデータフローと管理を推進するために利用される。
インドネシアで初めて、システムは透明なシステムを通じて、毎日50万人近い人々のほぼ実際のデータを報告したかもしれない。
新型コロナウイルス感染をモニターし、評価するために提示される主なデータは、累積ケースダンデイケース番号である。
EISのデータは地理的にデータを提供し、より詳細な分析を行うこともできる。
EISのデータとダッシュボードは、病院、特に隔離区におけるベッド占有率と可用性に関する実際のデータを提示することで、パンデミックコントロールにおける政府に役立つ。
株主や学術機関は、EISデータやその他の要素を利用して、インドネシアの新型コロナウイルス対策を支援する必要がある。 SARS CoV-2 infection and transmission are problematic in developing countries such as Indonesia. Due to the lack of an information system, Provinces must be able to innovate in developing information systems related to surveillance of SARS CoV-2 infection. Jakarta Department of Health built a data management system called Executive Information System (EIS) of COVID-19 Reporting. EIS aimed to provide actual data so that current epidemiological analysis is accurate. The main idea of EIS is to provide valid and actual information to stakeholders, which can then be presented in the form of a dashboard. EIS is utilized to push data flow and management for rapid surveillance purposes. This could be the first time in Indonesia that a system reports near-actual data of nearly half a million people daily using an integrated system through a transparent system. The main data presented is important to monitor and evaluate COVID-19 transmission is the cumulative case dan daily case number. Data in EIS also can offer data geographically so that a more detailed analysis could be done. EIS's data and the dashboard help the government in pandemic control by presenting actual data on bed occupancy and availability across hospitals, especially isolation wards. Stakeholders, academic institutions should utilize EIS data and other elements to help Indonesia fight COVID-19. | 翻訳日:2023-03-17 19:13:24 公開日:2021-08-22 |
# データウェアハウスの構築と医療提供の標準化:ジャカルタ市におけるプロトコル開発 Establishing Data Warehouse to Improve Standardize Health Care Delivery: A Protocol Development in Jakarta City ( http://arxiv.org/abs/2108.09736v1 ) ライセンス: Link先を確認 | Verry Adrian, Intan Rachmita Sari and Hardya Gustada Hikmahrachim | (参考訳) ジャカルタはインドネシアで最も人口密度の高い都市である。
ジャカルタは12の主要な医療提供の指標(Standard Pelayanan Minimum または SPM)を持ち、母体と新生児の健康、学校高齢者、就労年齢、高齢者、いくつかの特定の状態(高血圧、糖尿病、結核、HIV)、およびメンタルヘルスに関するサービスで構成されている。
単一の統合データセンターを提供するデータウェアハウスを構築する計画を立てました。
第1フェーズ(2021年)では,データウェアハウスへの直接データ入力に対して,行政都市保健部に責任を負わせ,システムを改善する。
この期間は、1つのエントリを初めて使用することで、新しいデータ収集スキームの導入と適応を可能にした。
このシステムの基本的なプラットフォームは、インドネシア保健省を含む世界中で使用されているオープンソースプラットフォームであるDistrict Health Information System 2 (DHIS-2)である。
このデータウェアハウスの主な利点は、異なるソースから幅広いデータを収集し、従来のシステムよりも高速に提示するシンプルさと利便性である。
また、データ交差を伴う健康プログラム間ではデータの矛盾が少なかった。
この移行段階では、ジャカルタのDHIS-2システムと厚生労働省の両システムにデータを入力するため、二重作業が行われるが、統合プロセスが進行中であり、2022年に単一のデータ入力が確立されることが望まれる。 Jakarta is a metropolitan city and among the most dense city in Indonesia. Jakarta has 12 major indicators of standardize health care delivery (Standard Pelayanan Minimum or SPM) derivates from Ministry of Health consists of services related to maternal and neonatal health, school-aged population, working-age population, elderly population, some specific conditions (hypertension, diabetes, tuberculosis, HIV), and also mental health. We planned to construct a data warehouse to provide a single integrated data center. In the first phase (2021), we improve the system by giving responsibility to the health Sub Department of Health of Administrative City for direct data input into a data warehouse. This period also let an introduction and adaptation to new data collection schemes by using a single entry for the first time. The basic platform use for this system is District Health Information System 2 (DHIS-2), an open-source platform that has been used worldwide, including Ministry of Health Republic of Indonesia. The major advantage of this data warehouse is the simplicity and convenience to collect a wide data from a different source and presenting it faster than using the conventional system. Less data contradiction was also found between health programs with intersecting data. During this transition phase, a double-work is made as data should be input to both the DHIS-2 system by Jakarta and the National Ministry of Health system, but an integration process is ongoing, and hopefully that in 2022 single data entry can be established. | 翻訳日:2023-03-17 19:13:02 公開日:2021-08-22 |
# 公立病院における医療活動とeヘルス技術の統合 : 批判的現実主義的視点 EHealth Technologies Integration with Healthcare Work Activities in Public Hospitals: A Critical Realist Perspective ( http://arxiv.org/abs/2108.09734v1 ) ライセンス: Link先を確認 | Mourine Achieng and Ephias Ruhode | (参考訳) eHealth技術と医療労働活動の統合は、発展途上国の多くの医療システムにおいて大きな進歩を遂げている。
しかしながら、これらの取り組みには、断片化、標準化の欠如、調整の調整など、いくつかの課題がある。
その後、健康戦略や政治文書に記載されたehealthの事業は完全には実現されていない。
このことの意義は、人口の大多数がいまだに適切な医療サービスにアクセスできないことにある。
本研究の目的は、南アフリカの未整備の状況において、現在の統合の取り組みが公共病院における医療活動を適切に支援しない理由を説明することである。
質的アプローチにおける批判的現実主義的視点が採用された。
医療サービス提供プロセスにおける知識と経験と、健康統合への関与から、21人の参加者が純粋にサンプリングされ、インタビューを受けた。
この研究は、理論解析ツールとしてアクティビティ分析開発(ActAD)モデルを適用し、説明的枠組みとして正規化プロセス理論(NPT)に基づく。
この知見は,医療ワークフローにおけるシステム適合性の不十分な分析などの生成メカニズムが,eHealthの統合プロセスにおける効果を阻害していることを示す。 Integration of eHealth technologies with healthcare work activities has seen great advancement in many healthcare systems in developing countries. However, these efforts have been tainted by several challenges such as fragmentation, lack of standardization and co-ordination. Subsequently, the undertakings of eHealth articulated in health strategy/policy documents have not been fully realised. The implications of this has been that the majority of the population still access inadequate healthcare services. The aim of this paper is to explain why the current integration efforts do not adequately facilitate healthcare work activities in public hospitals in under-served contexts of South Africa. A critical realist perspective within a qualitative approach was adopted. A total of 21 participants were purposively sampled and interviewed because of their knowledge and experience in the healthcare service delivery process as well as their involvement in the integration of ehealth. The study applied the Activity Analysis and Development (ActAD) model as a theoretical analytical tool and draws on normalization process theory (NPT) as an explanatory framework. The findings highlight generative mechanisms such as the inadequate analysis of system's fit-for-purpose in healthcare workflows have inhibiting effects in the integration process of eHealth. | 翻訳日:2023-03-17 19:12:18 公開日:2021-08-22 |
# デジタル社会福祉におけるデータ正義 : Rythu Bharosa Schemeの研究 Data Justice in Digital Social Welfare: A Study of the Rythu Bharosa Scheme ( http://arxiv.org/abs/2108.09732v1 ) ライセンス: Link先を確認 | Silvia Masiero and Chakradhar Buddha | (参考訳) デジタル社会保護システムは、ユーザ識別や権利付与に効果をもたらすと主張されているが、データ正義の影響は疑問視されている。
特に、生体認証に基づく補助金の配送は、排除を拡大し、情報的非対称性を示唆し、受取者に悪影響を及ぼす政策構造を再現する。
本稿では,インド・アンヘラプラデーシュ州の農家を対象にした社会福祉制度であるRythu Bharosaを研究するために,データジャスティスレンズを用いた。
受信者数に関するこのスキームの報道は高いと報じられているが、我々のフィールドワークでは、意図された受信者のために監視される3つの形式のデータジャスティスが明らかにされている。
登録された生体認証情報と銀行口座の詳細が補助金の否定に関連付けられているため、第一形態はデザイン関連である。
第2の形式は情報であり、補助金を受け取らないユーザは、それがなぜあるのか、あるいはそれらに利用可能な厳格な回帰プロセスについて知らされないことが多い。
これらの次元において、我々のデータは、土地所有者による承認に対する補助金の条件性を中心とした構造的要素を追加し、そこでは、テナント農家は、既存のクラスとキャスターの従属パターンを再現する土地所有者の同意を要求せざるを得ない。
この論文は、デジタル社会福祉システムの問題化を補足し、デジタル社会保護におけるデータ正義の研究に構造的次元を寄与している。 While digital social protection systems have been claimed to bring efficacy in user identification and entitlement assignation, their data justice implications have been questioned. In particular, the delivery of subsidies based on biometric identification has been found to magnify exclusions, imply informational asymmetries, and reproduce policy structures that negatively affect recipients. In this paper, we use a data justice lens to study Rythu Bharosa, a social welfare scheme targeting farmers in the Andhra Pradesh state of India. While coverage of the scheme in terms of number of recipients is reportedly high, our fieldwork revealed three forms of data justice to be monitored for intended recipients. A first form is design-related, as mismatches of recipients with their registered biometric credentials and bank account details are associated to denial of subsidies. A second form is informational, as users who do not receive subsidies are often not informed of the reason why it is so, or of the grievance redressal processes available to them. To these dimensions our data add a structural one, centred on the conditionality of subsidy to approval by landowners, which forces tenant farmers to request a type of landowner consent that reproduces existing patterns of class and caste subordination. Identifying such data justice issues, the paper adds to problematisations of digital social welfare systems, contributing a structural dimension to studies of data justice in digital social protection. | 翻訳日:2023-03-17 19:11:56 公開日:2021-08-22 |
# データ検証と健康行動のためのデータ利用に関するリフレクション、学習および提案する介入--モザンビークを事例として Reflections, Learnings and Proposed Interventions on Data Validation and Data Use for Action in Health: A Case of Mozambique ( http://arxiv.org/abs/2108.09731v1 ) ライセンス: Link先を確認 | Nilza Collinson, Zeferino Saugene, J{\o}rn Braa, Sundeep Sahay and Emilio Mosse | (参考訳) 我が国の保健情報システム(HIS)の理想は、関連するデータの収集を容易にし、医療介入の意思決定と支援を支援する有用な健康指標への変換を可能にするプロセスを開発することである。
多くの低所得国や中所得国では、医療改革に積極的に取り組んでおり、HISの役割は特にデータの品質や意思決定者への信頼を刺激し、日常的なHISデータを積極的に活用する能力において重要である。
デジタルプラットフォームがこれらの取り組みをサポートする可能性を認識し、多くのlmicでいくつかの介入が行われている。
紙のレジスタからデジタルプラットフォームへの移行は、データ品質のプロセスを改善するという約束を果たすが、この約束は、実際に実現するには非常に複雑である。
著者らはモザンビークで15年以上の経験を積み重ねて、デジタルプラットフォームのポテンシャルがデータ品質に関してどのように実現されているか、ギャップと修正に必要なステップは何なのかを理解した。 The ideal of a country's health information system (HIS) is to develop processes that ensure easy collection of relevant data and enable their conversion to useful health indicators, which guide decision making and support health interventions. In many Low- and Middle-Income Countries (LMICs), actively engaged in health reform efforts, the role of HIS is crucial, particularly in terms of quality of data and its ability to inspire trust in decision makers to actively use routine HIS data. Recognizing digital platforms potential to support those efforts, several interventions have been implemented in many LMICs. In turn, while the transition from paper registers to digital platforms carries the promise of improving data quality processes, this promise has been notoriously complex to materialize in practice. The authors draw upon more than 15 years of experience implementing HIS in Mozambique to understand how the potential of digital platforms have been realized with respect to data quality, what are the gaps and required remedial steps. | 翻訳日:2023-03-17 19:11:27 公開日:2021-08-22 |
# 境界スパンニングとデジタル起業家支援 : バーレーンを事例として Boundary Spanning and the Support of Digital Entrepreneurs: A Case Study of Bahrain ( http://arxiv.org/abs/2108.09730v1 ) ライセンス: Link先を確認 | Noora H. Alghatam | (参考訳) 本稿では,bahrainにおけるデジタル起業家のためのコミュニティとプラットフォームの構築と管理を行う上で,公共部門と民間部門のチームが果たす役割について考察する。
本論文は,2つのチーム間のインタラクションの性質を,デジタル起業を支援するために,境界スパンナーの理論的概念を用いて検討した。
本研究は,地域間相互作用を境界に分散させ,コミュニティとプラットフォームの形成と形式化に寄与することを示す。 This paper explores the role of public and private sector teams as they collaborate to form and manage a community and platform for digital entrepreneurs in Bahrain. The paper employed the theoretical concept of boundary spanners to explore the nature of interactions between the two teams as support digital entrepreneurship and the outcomes that emerged from these interactions. The findings present the nature of the inter-sectoral interactions as boundary spanning that contributed to the initiation and formalization of the community and platform. | 翻訳日:2023-03-17 19:11:08 公開日:2021-08-22 |
# スリランカにおけるcovid-19情報システム応答のアジリティ構築 - プラクティスの推奨 Building Agility in COVID-19 Information Systems Response in Sri Lanka: Recommendations for Practice ( http://arxiv.org/abs/2108.09727v1 ) ライセンス: Link先を確認 | Pamod Amarakoon, Jorn Braa and Sundeep Sahay | (参考訳) 新型コロナウイルスのパンデミックは、予想外の要件に迅速に対応できる能力について、各国の情報システムの能力を検査した。
本稿は、スリランカのCOVID-19パンデミックに対するIS対応構築におけるアジリティの社会技術的決定要因について分析する。
我々は,スリランカにおける新型コロナウイルス監視システムの実施事例調査のために質的研究手法を展開。
3つの重要な推奨事項は、ハイレベルなマルチセクタガバナンス、軽量なデジタルプラットフォームの使用、既存の能力とインフラの活用に関するプラクティスである。 COVID-19 pandemic tested the capacity of information systems in countries on the ability to rapidly respond to requirements which were not anticipated. This article analyzes the socio-technical determinants of agility in building the IS response to the COVID-19 pandemic in Sri Lanka. We deploy qualitative research methods to explore the case study of implementation of COVID-19 surveillance system in Sri Lanka. Three key recommendations are developed for practice relating to high-level multisectoral governance, use of lightweight digital platforms and leveraging on existing capacities and infrastructure. | 翻訳日:2023-03-17 19:10:58 公開日:2021-08-22 |
# COVID-19パンデミック時のスリランカにおける子育てのためのレジリエント情報システムの構築 Building Resilient Information Systems for Child Nutrition in Post-conflict Sri Lanka during COVID-19 Pandemic ( http://arxiv.org/abs/2108.09726v1 ) ライセンス: Link先を確認 | Pamod Amarakoon, J{\o}rn Braa, Sundeep Sahay, Lakmini Magodarathna and Rajeev Moorthy | (参考訳) 紛争後、低リソース設定は、低リソース、経済的、社会的不安定性に関連する課題に苦しめられている。
本研究の目的は,スリランカの紛争後地区におけるモバイル型栄養情報システムの導入の背景から,日常情報システムのレジリエンスの社会技術的決定要因を理解することである。
研究の縦断的な出来事は、新型コロナウイルス(COVID-19)のパンデミックの時代まで数年間にわたって広がり、脆弱な地域でのレジリエンスの発達過程を理解しようと試みている。
質的研究は、経験的データの収集のためにインタビュー、観察、文書分析を展開する。
ケーススタディでは、長期にわたるキャパシティ構築、リーダーシップとローカルガバナンス、マルチセクタコラボレーション、プラットフォームのレジリエンス、現場医療スタッフのエンパワーメントが、日々のコンテキストにおけるレジリエンス構築に寄与していることを明らかにします。
実証的な洞察は、フィールドレベルでのデータ品質とデータ利用を促進しながら、低いリソース設定でルーチンシステムでレジリエンスを構築するメカニズムを含む。 Post-conflict, low-resource settings are menaced with challenges related to low-resources, economic and social instability. The objective of the study is to understand the socio-technical determinants of resilience of resilience of routine information systems a backdrop of an implementation of a mobile-based nutrition information system in a post-conflict district in Sri Lanka. The longitudinal events in the study spans across several years into the period of COVID-19 pandemic and tries to understand the process of developing resilience of in a vulnerable district. The qualitative study deploys interviews, observations and document analysis for collection of empirical data. The case study reveals the long-standing capacity building, leadership and local governance, multisector collaboration, platform resilience and empowering of field health staff contribute in building resilience in everyday context. The empirical insights include the mechanisms in building resilience in routine system in low resource settings while promoting data quality and data use at field level. | 翻訳日:2023-03-17 19:10:46 公開日:2021-08-22 |
# スマートシティ:共有経済の文脈における可能性と課題 Smart Cities: Potentialities and Challenges in a Context of Sharing Economy ( http://arxiv.org/abs/2108.09758v1 ) ライセンス: Link先を確認 | Ben Hur Monteiro Barizon and Renata L\`ebre La Rovere | (参考訳) 本研究の目的は、ブロックチェーンとIoT技術がスマートシティプロジェクトにどのようなメリットをもたらすかを示すことであり、共有経済の文脈に広がる傾向にある。
この記事では、スマートシティプロジェクトの課題と可能性についても説明する。
技術プラットフォームは、製品開発(製品とサービス)と技術ベースのイノベーションの基礎を構築するための戦略として機能することを発見した。 The purpose of the present paper is to show how blockchain and IoT technologies can benefit smart city projects, which tend to spread in the context of the sharing economy. The article also aims to describe the challenges and potentialities of smart city projects. It was found that technology platforms can serve as a strategy to build the basis for product development (goods and services) and technology-based innovation. | 翻訳日:2023-03-17 19:04:33 公開日:2021-08-22 |
# クラウドコンピューティング導入における南アフリカの大企業の意思決定基準 The Decision Criteria Used by Large Enterprises in South Africa for the Adoption of Cloud Computing ( http://arxiv.org/abs/2108.09757v1 ) ライセンス: Link先を確認 | Tseriwa Bakasa and Ayanda Pekane | (参考訳) クラウドコンピューティングは、過去10年間で、いくつかの企業で人気が高まっているテクノロジです。
この人気は、運用コストの低減、計算能力の向上、柔軟性の向上、オンデマンドストレージスペースなど、そのメリットによる可能性がある。
その結果、多くの企業がすでにさまざまなクラウドコンピューティング(CC)の採用と実装段階にある。
本研究では,南アフリカの大企業がクラウド技術を採用する際の意思決定基準について検討した。
大企業の大半は包括的リソースを持っており、組織内に確立された情報技術(it)システムとインフラストラクチャーを生み出している。
このような状況ではあるものの、大企業によるCCの採用は増加傾向にある。
CC文献がCC導入の利点や影響力を指摘しているので、これは驚くことではないかもしれない。
しかし,SA の大企業による CC 採用における決定基準は,文献のレビューにおいて欠落している。
この研究は質的手法を用いた帰納的アプローチに従った。
発見によると、大企業は公式または標準化された意思決定基準を使わない。
しかし、運用コスト、企業の戦略的意図、製品効率は、CCを採用する上で重要な基準を形成した。
さらに、セキュリティ、クラウドサービスプロバイダの採用フレームワーク、データ主権が、CCサービスプロバイダを選択する上で重要な基準でした。
この研究は、特に発展途上国のCC技術採用文献に貢献する。 Cloud computing is a technology that has become increasingly popular over the past decade within several enterprises. This popularity can be attributed to its benefits, including lower operating costs, improved computational capabilities, increased flexibility and on-demand storage space. As a result, many enterprises are already in various Cloud Computing (CC) adoption and implementation stages. This study investigates the decision criteria used by large enterprises in South Africa (SA) for the adoption of cloud technology. The majority of large enterprises have comprehensive resources, resulting in established Information Technology (IT) systems and infrastructure set up within their organizations. Though this is the case, the adoption of CC by large enterprises has been on the rise. This may not be a surprise as CC literature points out to benefits and influencers of CC adoption. However, the decision criteria used by large enterprises in SA in adopting CC are lacking in the literature reviewed. The study followed an inductive approach making use of qualitative methods. Findings revealed that large enterprises do not make use of a formalized or standardized decision criteria. However, operational cost, enterprise strategic intent and product efficiency formed key criteria for adopting CC. In addition, security, cloud service provider adoption frameworks and data sovereignty were the key criteria used to select a CC service provider. The research will contribute towards CC technology adoption literature, particularly for developing countries. | 翻訳日:2023-03-17 19:04:26 公開日:2021-08-22 |
# ICTDプロジェクトの総合的スケーラビリティ評価のためのフレームワークの提案 A Proposed Framework for the Comprehensive Scalability Assessment of ICTD Projects ( http://arxiv.org/abs/2108.09756v1 ) ライセンス: Link先を確認 | Gugulethu Baduza and Caroline Khene | (参考訳) ICTDプロジェクトのスケーラビリティは、この分野では無視されてきた必須トピックである。
ictdプロジェクトのスケーラビリティ評価について、成功のための実績のあるビジネスモデルの欠如、プロジェクトの失敗率の高まり、評価の未定義な側面、スケールしたプロジェクトの少なさといった要因によって書かれたり、調査されたりすることはほとんどない。
したがって、スケールアッププロセスで経験した課題を軽減するために考慮すべき要因は様々である。
本研究は、ICTDプロジェクトのスケーラビリティを、プロジェクトのインパクトと潜在的持続可能性を考慮した総合的な評価手法を用いて評価する方法に関する調査によって導かれる。
本研究では,システム理論と増幅理論を用いた総合的拡張性評価フレームワーク(CSAF)を提案する。
フレームワークの開発には,評価ガイドラインと評価の進行領域,4つの拡張性テーマ(ステークホルダ構成,モデルの実現性,リソース持続可能性,レジリエンス),スケーラビリティの判断という,3つのコンポーネントで構成されている。 The scalability of ICTD projects is an imperative topic that has been neglected in the field. Little has been written or investigated about the assessment of the scalability of ICTD projects due to factors, such as the lack of proven business models for success, the high failure rate of projects, undefined aspects of assessment, and the small number of projects that have scaled. Therefore, there are various factors that should be taken into consideration to alleviate the challenges experienced in the process of scaling up. This research study is guided by an investigation into how can the scalability of an ICTD project be assessed using a comprehensive evaluation approach that considers the impact and potential sustainability of the project. This research study proposes a Comprehensive Scalability Assessment Framework (CSAF), using systems theory and amplification theory to guide the theoretical analysis and empirical investigation. A theorizing approach is used to develop the framework, which is structured around three components: assessment guidelines and proceeding domains of evaluation; four scalability themes (stakeholder composition, models feasibility, resources sustainability and resilience) and judge scalability. | 翻訳日:2023-03-17 19:04:08 公開日:2021-08-22 |
# ナイジェリア大学におけるサイバー犯罪リスク管理の枠組み Framework for Managing Cybercrime Risks in Nigerian Universities ( http://arxiv.org/abs/2108.09754v1 ) ライセンス: Link先を確認 | Bukhari Badamasi and Samuel C. Avemaria Utulu | (参考訳) ナイジェリアを含む発展途上国の大学は、サイバー空間や資源の管理が不十分なためにサイバー犯罪のリスクを経験する。
これらのサイバー犯罪の結果は、大学のサイバーセキュリティの脅威と侵害である。
この脅威と侵害は、財政的、社会的、知的財産的な損失をもたらした。
近年、ナイジェリアの大学はこれらのサイバー攻撃に対応するようになった。
彼らの多くは、サイバーセキュリティの脅威や侵害を軽減するためのサイバー犯罪防止ツールやプログラムに投資している。
それにもかかわらず、ナイジェリアの大学がサイバー攻撃に苦しむ回数は増え続けており、その結果生じる損失は増え続けている。
しかし、私たちの観察によると、ナイジェリアのほとんどの大学は、彼らの内外から生じる脅威や侵害を管理する方法を、科学的に派生したフレームワークを使わずに、サイバーセキュリティを実行している。
我々はこの問題を、ナイジェリアの大学がサイバーセキュリティの脅威や侵害を軽減するために行っている取り組みの問題だと考えている。
この論文で報告された研究は、ナイジェリアの大学が、サイバーセキュリティの脅威や侵害を軽減できる実行可能なフレームワークをいかに開発できるかを説明するために行われた。
この研究は文献レビューに基づいており、ナイジェリアの大学がサイバーセキュリティプログラムの立ち上げにどのように対応できるかを提案する。
このプロセスは、問題識別、目的の記述、アーティファクトの設計と開発、テスト、アーティファクトの評価、結果の伝達からなる。
この枠組みは、ナイジェリアの大学が効率的かつ効果的なサイバーセキュリティプログラムを設立する上で、有益な出発点となると結論付けている。 Universities in developing countries, including those in Nigeria, experience cybercrime risks due to poor management of their cyber spaces and resources. The outcome of these cybercrimes are threats and breaches of universities' cyber security. The threats and breaches have resulted in substantial financial, social, and intellectual property losses. In the recent past, Nigerian universities have started to respond to these cyber-attacks. Many of them now invest in anti-cybercrime tools and programs to mitigate cyber security threats and breaches. Despite this, the number of times Nigerian universities suffer from cyber-attacks and the losses that result from them keeps increasing. Our observation, however, indicates that most Nigerian universities run their cyber security without using scientifically derived frameworks that spell out how to manage threats and breaches that emanate from within and outside them. We consider this a problem to ongoing efforts made by Nigerian universities to mitigate cyber security threats and breaches. The study reported in this paper was therefore, carried out to explicate how Nigerian universities can develop actionable frameworks that can help them to mitigate cyber security threats and breaches. The study is based on literature review and propose how an actionable framework that Nigerian Universities can adopt to setoff cybersecurity programs can be developed. The process comprises of problem identification, description of objectives, designing and developing the artefact, testing, and evaluating the artefact, and communicating the result. We conclude that the framework provides a lucrative starting point for Nigerian universities to setoff efficient and effective cyber security program. | 翻訳日:2023-03-17 19:03:49 公開日:2021-08-22 |
# 栄養リハビリテーションにおけるドットの連携:ICTと地域ケアの質的研究 Connecting the Dots in Nutritional Rehabilitation: A Qualitative Study on ICT and Community Based Care ( http://arxiv.org/abs/2108.09751v1 ) ライセンス: Link先を確認 | Deepa Austin and Amit Prakash | (参考訳) 「ケアのフラメンテーション」連続体は健康システムの欠点と見なされることが多いが、「ケアの統合」は断片化の有効な解決策として広く認められている。
過去20年間で、情報通信技術(ICT)は、行動のための情報を統合する能力によって、栄養失調など多くの公衆衛生問題に広く利用されてきた。
栄養失調の公衆衛生問題に取り組むには、相互接続性や複数のシステム間の相互作用に注意が必要である。
本稿では,カルナタカにおける栄養失調管理にコミュニティワーカーが用いたICT活用の事例スタディを用いて,利害関係者間の相互関係や相互作用の認識の欠如が,ケア統合の課題となることを論じる。
栄養失調とその管理に固有の複雑さを認識している場合、ICTは断片化を克服するための重要な手段となる。
重篤な急性栄養失調(SAM)管理を効果的に活用するためには、複数の利害関係者の視点とコンテキストダイナミクスの豊かな図面を徹底的に理解することは、設計や実施段階では無視すべきではない、と我々は主張する。 'Fragmentation in care' continuum is often considered as a shortcoming of Health system whereas, 'Integration of care' is widely acclaimed as a viable solution to fragmentation. In last two decades, Information and communication technologies (ICTs), by virtue of their ability to integrate information for action, has been extensively used in addressing many public health problems like malnutrition. Tackling the public health challenge of malnutrition demands attention to interconnectedness and interactions between multiple systems. In this paper, using a case study of an ICT application used by community workers for malnutrition management in Karnataka, we argue that lack of recognition of interconnectedness and interactions among stakeholders and context can pose a challenge to integration of care. ICTs can be key enablers to overcome fragmentation, provided it recognizes the inherent complexities of malnutrition and its management. We argue that for an effective ICT enabled integration of Severe Acute Malnutrition (SAM) management, a thorough understanding of perspectives of multiple stakeholders together with rich picture of the contextual dynamics should not be ignored at design and implementation phase. | 翻訳日:2023-03-17 19:03:28 公開日:2021-08-22 |
# 農業拡張情報サービスのためのレジリエント情報システムに向けて:探索的研究 Towards a Resilient Information System for Agriculture Extension Information Service: An Exploratory Study ( http://arxiv.org/abs/2108.09748v1 ) ライセンス: Link先を確認 | Muluneh Atinaf, Alemayehu Molla and Salehu Anteneh | (参考訳) デジタル技術は人間の発達に寄与しているが、特に発展途上国における開発のための情報システム(IS)の介入は、期待通りには機能せず、大規模に成果を期待できない。
これにより、より研究の注意を要する分野である、開発のためのレジリエントなISの開発と強化に関する疑問が提起される。
地域コミュニティがレジリエンスを維持するために適用されるメカニズムを健全かつ体系的に理解し、回復力のある開発のための重要な転換領域は、状況を改善するのに役立つだろう。
本研究は,農業拡張情報サービス(aeis)におけるレジリエント情報提供の確保と,レジリエントisの設計における課題を明らかにする。
概念的には、この研究はISレジリエンスフレームワークに由来する。
実証的には、エチオピアにおけるAEIS規定の実践から収集されたインタビューデータから抽出される。
その結果,AEISにおけるISのレジリエンス向上に必要な,堅牢性,自己組織,学習,冗長性,迅速性,スケール,多様性,平等性のメカニズム,課題とキートランスフォーメーションが示された。
本研究は、地域情報提供実践の分析におけるisレジリエンスフレームワークの適用に関する議論と、aeisの有効性と影響を改善するための重要なトランスフォーメーション領域を強調する実践に寄与する。 Although digital technologies are contributing to human development, several information systems (IS) interventions for development especially in developing countries do not perform as expected nor deliver anticipated outcomes at scale. This raises questions about how to develop and enhance resilient IS for development, an area that requires more research attention. A sound and systematic understanding of the mechanisms local communities apply to maintain resilience and the key transformation areas for a resilient IS development will help to improve the situation. This study addresses how stakeholders can ensure resilient information provision within the Agricultural Extension Information Service (AEIS) and identifies the challenges in designing resilient IS. Conceptually, the study draws from the IS resilience framework. Empirically, it draws from interview data collected from the AEIS provision practice in Ethiopia. The findings show the robustness, self-organization, learning, redundancy, rapidity, scale, diversity and equality mechanisms, the challenges and the key transformations required to advance the resilience of IS for AEIS. The study contributes to the conversation on the application of the IS resilience framework in analyzing local information provision practices as well as to practice highlighting the key transformation areas to improve the effectiveness and impact of AEIS. | 翻訳日:2023-03-17 19:03:06 公開日:2021-08-22 |
# 水分野のデジタル化:水サービス管理とガバナンスの意義 Digitalising the Water Sector: Implications for Water Service Management and Governance ( http://arxiv.org/abs/2108.09746v1 ) ライセンス: Link先を確認 | Godfred Amankwaa, Richard Heeks and Alison L. Browne | (参考訳) デジタル技術は、水管理と管理の中心となっているが、その影響と発展的影響は、特に世界的な南部では、あまり研究されていない。
本稿では,水サービスデジタル化のプロセスとサービス提供者への影響を検討することで,この知識ギャップに対処する。
定性的手法に基づいて,ガーナの水利会社におけるデジタル技術の実装と影響を検討するために,デジタル化,価値,パワーのアイデアを適用した。
デジタルウォーターのイノベーションは最近のもので、戦略的レベルではなく、主にユーティリティの運用に価値をもたらすことで、比較的限られた影響をもたらすことができる。
デジタル技術は、水管理構造や責務の変化と同様に、電力のシフトと内部および外部での闘争の道を示す。
最後に,水道サービスのガバナンスと研究の意義について,簡単な議論を行う。 Digital technologies are becoming central to water governance and management, yet their impact and developmental implications are under-researched, particularly in the global South. This paper addresses this knowledge gap by examining the process of water service digitalisation and the resulting effects on service providers. Drawing on qualitative methods, we apply ideas on digitalisation, value, and power to investigate the implementation and impact of digital technologies in Ghana's state water utility company. We find digital water innovations to be recent, and delivering relatively limited impacts as yet, with value mainly accruing at the utility's operational rather than strategic level. The digital technologies present avenues for power shifts and struggles internally and externally as well as some changes in water management structures and responsibilities. We end with a brief discussion on the implications for water service governance and research. | 翻訳日:2023-03-17 19:02:43 公開日:2021-08-22 |
# サウジアラビア王国におけるM-GovernmentとWilayaとWomen's Enpowerment M-Government, Wilaya and Women's Empowerment in the Kingdom of Saudi Arabia ( http://arxiv.org/abs/2108.09745v1 ) ライセンス: Link先を確認 | Norah Humus Alotaibi, Salihu Dasuki and Efpraxia Zamani | (参考訳) サウジアラビア王国(KSA)における男性保護制度(ウィラヤ)の緩やか化に伴い、サウジアラビアの女性のエンパワーメントに対するm政府の役割について検討した。
我々は、KSAにおけるm政府サービスがどのように女性が権限を持つ機会を提供したかを理解するために、Sen's Capability Approach(CA)のキーコンセプトを採用する。
本研究の結果は,m- Governmentが社会・経済活動に参加する機会を提供することで女性のエンパワーメントに寄与していることを示している。
しかし、エンパワーメントにm政府サービスを使うことを妨げる重要な社会的・文化的要因も存在し、これらには宗教信仰、サウジアラビアの伝統、慣習、夫の妬みが含まれていることが判明した。
この研究は、サウジアラビアの女性がm- governmentの申請を通じて政府サービスにアクセスする機会を活用し、アクセスを妨げるために機能するかもしれない文化的障壁に対処することに焦点を当てた最初の研究であり、理論と実践にいくつかの重要な貢献をしている。 With the loosening of the male guardianship system (Wilaya) in the Kingdom of Saudi Arabia (KSA), this study examines the contribution of m-government to the empowerment of Saudi women. We employ the key concepts of Sen's Capability Approach (CA) to understand how m-government services in the KSA have provided opportunities for women to become empowered. The findings of the study indicate that m-government contributes towards women's empowerment by providing opportunities to participate in social and economic activities. However, there are also key social and cultural factors that impede the use of m-government services for empowerment, and we found these to include religious beliefs, Saudi traditions and customs, and husbands' jealousy. The study makes some important contributions to theory and practice by being the first study to focus on the use that Saudi women make of the opportunities now available to them to access government services through m-government applications and to address the cultural barriers which may function to prevent their access. | 翻訳日:2023-03-17 19:02:31 公開日:2021-08-22 |
# モバイル決済サービスのデジタルレジリエンスと継続利用 Digital Resilience and the Continuance Use of Mobile Payment Services ( http://arxiv.org/abs/2108.09743v1 ) ライセンス: Link先を確認 | Muftawu Dzang Alhassan and Martin Butler | (参考訳) モバイル決済サービスの利用は、新興市場における金融包摂に不可欠の貢献である。
残念ながら、このサービスは詐欺のプラットフォームになっている。
モバイル決済のユーザーは、悪事が起きた後もこのサービスを使い続けるために、デジタルレジリエントでなければならない。
しかし、詐欺事件後におけるモバイル決済サービスの利用継続に関する文献は少ない。
先行文学の焦点は、ユーザを保護するポリシーを実装するための技術の採用や脅威回避だった。
個々のディジタルレジリエンスと後適応行動パターンの関係を分析することで、サービスプロバイダは個々のディジタルレジリエンスをサポートし、サービスの継続使用を促進することができる。
本研究は,モバイルペイメントの継続利用の文脈において,個々のデジタルレジリエンスを検証するための概念モデルを開発し,実証的に検証することを目的とする。
このモデルは保護動機理論に基づいている。
調査データは、モバイルペイメント詐欺の被害者や、モバイルペイメント詐欺の知識にもかかわらずサービスを継続しているユーザーから得られる。
本研究の結果は,デジタルレジリエンス,モバイルペイメント,ict4dの分野における理論,実践,政策に重要な貢献を期待されている。 The use of mobile payment services is an essential contributor to financial inclusion in emerging markets. Unfortunately, the service has become a platform for fraud. Mobile payment users need to be digitally resilient to continue using the service after adverse events. However, there is scant literature on users' continuance use of mobile payment services in the post-event of fraud. The focal point of prior literature has been on technology adoption or threat avoidance to implement policies that protect users. Analysing the relationship between individual digital resilience and post-adoption behavioural patterns will enable service providers to support individual digital resilience to promote users' continuance use of the service. This research aims to develop and empirically validate a conceptual model to examine individual digital resilience in the context of the continuance use of mobile payments. The model will be based on protection motivation theory. Survey data will be obtained from victims of mobile payment fraud and other users who continue using the service despite their knowledge of mobile payment fraud. The results from this study are expected to make key contributions to theory, practice, and policy in the areas of digital resilience, mobile payments, and ICT4D. | 翻訳日:2023-03-17 19:02:13 公開日:2021-08-22 |
# 新型コロナウイルスパンデミックにおけるECO諸国の教育対応に対するICT4Dの回復的アプローチ A Resilient ICT4D Approach to ECO Countries' Education Response during COVID-19 Pandemic ( http://arxiv.org/abs/2108.09742v1 ) ライセンス: Link先を確認 | Azadeh Akbari | (参考訳) 国連によると、学校閉鎖は低所得国と低所得国の学生人口の最大99%に影響を及ぼしている。
本研究報告では,経済協力機構(ECO)の10州における緊急遠隔指導(ERT)の取り組みについて紹介し,情報通信技術(ICT)を初等・中等教育レベルで活用することに着目した。
本プロジェクトはICT4D(Resilient ICT-for-Development)フレームワークにおいて,教育システムにおける対処,持続性,前危機機能への復帰について比較検討する。
この予備的な研究は、同国の一般的な新型コロナウイルス戦略、教育システム、遠隔学習プラットフォームに対するデジタルインフラの開発レベルの影響を実証している。
さらに, 安定したインターネット接続やデジタルデバイスへのアクセスに加えて, 食品や電気, 健康サービスへのアクセスなどのインフラ要素が, 教育対応計画や実施において重要な役割を担っていることを示した。
教員のICT活用指導、生徒や親のデジタルリテラシー、教育システムの脆弱性など教育システムの人間的要因は、教育分野における危機管理に課題をもたらす。
その他、女子教育に対する態度、汚職レベル、制度的能力、国際制裁や資金提供などの社会的政治的要因は、教育制度の弾力性も低下させる。 According to the United Nations, schools' closures have impacted up to 99 per cent of the student population in low and lower-middle-income countries. This research-in-progress report introduces a project on Emergency Remote Teaching (ERT) measures in the ten member states of the Economic Cooperation Organization (ECO) with a focus on the application of Information and Communication Technologies (ICTs) in primary and secondary education levels. The project takes a comparative approach within a resilient ICT-for-Development (ICT4D) framework, where the coping, endurance, and return to pre-crisis functionalities in education systems are studied. The preliminary research demonstrates the impacts of the country's general COVID-19 strategy, the education system in place, and digital infrastructure's level of development on instigating distance-learning platforms. The paper further shows that in addition to access to stable internet connections and digital devices, other infrastructural factors such as access to food, electricity and health services play a significant role in education response planning and implementation. Human factors in the education system, such as teacher training for the usage of ICTs, digital literacy of students and parents, and already existing vulnerabilities in the education system pose challenges to crisis management in the education sector. Other socio-political factors such as attitudes towards girls' education, level of corruption, institutional capacity, and international sanctions or available funds also make the education system less resilient. | 翻訳日:2023-03-17 19:01:55 公開日:2021-08-22 |
# 「東方からの知恵の共有」--接地理論方法論(gtm)を用いたict4dのネイティブ理論の開発--ティモール・レステからの経験 "Sharing Wisdoms from the East": Developing a Native Theory of ICT4D Using Grounded Theory Methodology (GTM) -- Experience from Timor-Leste ( http://arxiv.org/abs/2108.09778v1 ) ライセンス: Link先を確認 | Abel Pires da Silva | (参考訳) ict4d研究において、この研究分野の存在を確固たるものにするための理論構築研究が繰り返されている。
しかし、研究領域としてのict4dは、ネイティブ・ネイティブ・セオリーの発展に有望な場所であるにもかかわらず、理論構築研究はまだ一般的ではない。
そこで本稿は,ICT4Dのネイティブな中距離理論であるE政府プロジェクトの「持続可能性の育成」という中距離理論を著した著者の経験をもとに,ICT4Dにおける理論構築研究の概要を述べる。
本論文は, GTM文献を合成し, 研究生やICT4D研究者を対象に, GTM活用の実践例を段階的に提示する。
これはgtmの重要な戦略と原則、例えば、理論的なサンプリング戦略、定数比較戦略、概念-平均原理、研究プロセス全体を通しての文学の使用などを紹介する。
次に,ケーススタディを経験的データ源として用いて理論を展開するためのデータ収集・分析プロセスに関わるステップについて論じ,三つのケーススタディにおける戦略と原則の利用に関する議論を締めくくった。
本研究は研究方法論の多様化に寄与し,特にICT4D研究領域における土着・土着理論の総合的探求に寄与することが期待される。 There have been repeated calls made for theory-building studies in ICT4D research to solidify the existence of this research field. However, theory-building studies are not yet common, even though ICT4D as a research domain is a promising venue to develop native and indigenous theories. To this end, this paper outlines a theory-building study in ICT4D, based on the author's experience in developing a mid-range theory called 'Cultivating-Sustainability' of E-government projects, a native mid-range theory of ICT4D. The paper synthesizes the GTM literature and provides a step-by-step illustration of GTM use in practice for research students and early career ICT4D academics. It introduces the key strategies and principles of GTM, such as the theoretical sampling strategy, the constant comparison strategy, the concept-emergent principle, and the use of literature throughout the study process. Then discusses the steps involved in the data collection and analysis process to develop a theory using case studies as sources of empirical data; it concludes with a discussion on using the strategies and principles in the three case studies. It is expected that this paper contributes to the diversification of research methodology, particularly to our collective quest for developing native and indigenous theories in the ICT4D research domain. | 翻訳日:2023-03-17 18:55:24 公開日:2021-08-22 |
# コミュニティクリニックのためのモバイルアプリケーションによる持続可能な開発 Sustainable Development Through a Mobile Application for a Community Clinic ( http://arxiv.org/abs/2108.09776v1 ) ライセンス: Link先を確認 | Martina A. Clarke, Sajda Qureshi, Timi Barone and John R. Windle | (参考訳) Implementing Information and Communication Technology (ICT) ソリューションは、社会におけるプレッシャー問題を緩和し、持続可能な開発の中心的な要素である。
しばしば医療は、個々の経済的自由が医療を受けることを妨げる社会経済的限界に近づくことなく症状に対処する。
技術とトレーニングの介入によって、臨床医は患者の社会経済的制約に対処できるケアを提供できるのか?
本稿では,米国中西部のネブラスカ州オマハ市において,医療資源にアクセスできない人々を対象としたモバイルアプリの実装について考察する。
本研究はデザインサイエンスと行動研究のアプローチに従い,臨床医がモバイルアプリの開発に携わる。
新型コロナウイルスの影響で、患者は閉鎖されたため無料診療所にアクセスできなくなる。
アプリは、健康を維持するための基本的なリソースを必要とする幅広いコミュニティで利用できる。
本報告では,アプリケーション改訂と利用状況の観察を通じて,そのようなアプリケーションがマルチエスニック・アンサーブド・コミュニティをどのようにサポートできるかを考察する。
本研究は, 地域社会における情報ニーズを満たすためのICTソリューションの実現方法について, 文脈的に具体的かつ豊富な記述を提供することを目的とする。 Implementing Information and Communication Technology (ICT) solutions can alleviate pressing problems in society and are a central component of sustainable development. Often, healthcare addresses the symptoms without approaching the socioeconomic limiters that can lead to reduced individual economic freedoms from receiving healthcare. This paper investigates the question: How can technology and training interventions enable clinicians to offer care that addresses the socioeconomic limitations of their patients? This paper observes the implementation of a mobile app designed to offer people who cannot access health resources in Omaha, Nebraska, a city in the Midwestern United States. This study follows the design science and action research approach, with clinicians participating in developing the mobile app. As a result of COVID, patients no longer have access to the free clinic because it was shut down. The app is available to the broader community needing basic resources to stay healthy. Through sets of application revisions and observations of usage, this paper arrives at insights into how such applications can support multi-ethnic and underserved communities. The contribution of this paper is to provide contextually specific and rich descriptions of how to implement sustainable ICT solutions to meet the information needs of patients in underserved communities. | 翻訳日:2023-03-17 18:54:58 公開日:2021-08-22 |
# デジタルプラットフォームにおけるエコシステム価値の共同創造に影響を及ぼす境界資源とガバナンスプラクティスの相互作用を理解する:グローバル・サウスを事例として Understanding the Interplay between Boundary Resources and Governance Practices in Influencing Ecosystem Value Co-creation for Digital Platforms: A Case From the Global South ( http://arxiv.org/abs/2108.09775v1 ) ライセンス: Link先を確認 | Elijah Chirwa, Pamela Abbot and Jonathan Foster | (参考訳) その潜在的に変革的な影響にもかかわらず、モバイルマネーのような商業主導型のデジタルプラットフォームが、世界南部における生態系の価値の共同創造をどのように促進するかを調査する研究はほとんどない。
そこで本稿では,境界資源モデルとプラットフォームガバナンスアプローチを用いて,支払いプラットフォームがサードパーティのアクタとのエコシステム価値の共同創造をいかに促進しているかを検討する。
本研究は, 組込み単一ケース設計を用いて, 詳細な質的考察を行った。
その結果、エコシステム価値の共同創造は境界資源ツールの導入によって可能となったが、プラットフォームガバナンスの実践によって、一部の補完者がプラットフォームの使用料の活用を妨げた。
これらの制約には、受け入れ基準における境界リソースの可視性の欠如と透明性の課題が含まれる。
したがって, プラットフォーム生成性自体がエコシステム価値の共創を支援するには不十分であるが, 最適制御機構を用いることで, エコシステムアクターの行動複雑さに対処する適切なプラットフォームガバナンスが必要である。 Despite their potentially transformative impact, few studies have investigated how commercially-driven digital platforms such as mobile money facilitate ecosystem value co-creation in the global South. Consequently, using a boundary resources model and platform governance approaches, this paper aims to examine how a payment platform facilitates ecosystem value co-creation with third party actors. An in-depth qualitative inquiry was adopted for the study using an embedded single-case design. The results show that although ecosystem value co-creation was enabled by the introduction of boundary resources tools, some platform governance practices hindered some complementors from harnessing the affordances of the platforms. These constraints include lack of visibility of the boundary resources and transparency challenges in the acceptance criteria. We thus argue that platform generativity on its own is not sufficient to support ecosystem value co-creation, but requires appropriate platform governance to deal with behavioural complexity of ecosystem actors by using optimal control mechanisms. | 翻訳日:2023-03-17 18:54:39 公開日:2021-08-22 |
# サハラ以南のアフリカにおけるE-Governmentプロジェクトの実践的価値提案の実証的研究 Empirical Study of Sustaining the Actualized Value Propositions of Implemented E-Government Projects in Sub-Saharan Africa ( http://arxiv.org/abs/2108.09769v1 ) ライセンス: Link先を確認 | Yusuf Ephraim Chidama and Chidi Gerard Ononiwu | (参考訳) サハラ以南のアフリカの政府はe-Governmentプロジェクトを実施している。
価値提案の実現と価値の維持が問題になっている。
実装されたe-Governmentプロジェクトの価値提案に関するいくつかの研究は、その価値の実現を考慮しなかった。
さらに、そのような研究には理論的な基盤、実際の値を構成するものの同定と測定が欠如している。
実現された値を維持するメカニズムや、その持続可能性を可能にするコンテキスト条件も捉えていなかった。
その結果,概念中心のシステマティックレビューを用いて,実装プロジェクトの価値提案を同定した。
余剰実現理論、リアリスト評価理論(RE)理論、自己決定理論、およびe-Governmentの成功のための持続可能性フレームワークから導かれる。
reを3段階の方法論として,ルワンダで実施したe-governmentプロジェクトの再検討を行った。
第1相では,初期プログラム理論 (IPT) を開発し,第2相では定量的アプローチとして随伴評価を用い,第2相では定性的手法としてリアリストインタビューを用いた。
最後に,第3段階において,実効的価値持続可能性フレームワークを開発するために,2つの事例研究の結果を合成した。
このようなフレームワークは、e-Government調査の文脈で発見された価値命題を維持するために、相互作用における実際の価値命題、メカニズム、および条件をカプセル化している。 Governments in sub-Saharan Africa have implemented e-Government projects. Actualizing the value propositions and sustaining such values are becoming problematic. Some scanty studies on the value propositions of implemented e-Government projects did not consider actualization of the values. Besides, such studies lack theoretical underpinnings, the identification, and measure of what constitutes actualized values. Neither did they capture what mechanisms could sustain the actualized values nor the contextual conditions enabling its sustainability. Consequently, using a concept-centric systematic review, we identified the value proposition of such implemented projects. By drawing from theories of affordance actualization, realist evaluation (RE) theory, self-determination theory, and sustainability framework for e-Government success. We conducted a RE of the implemented e-Government projects in Rwanda using RE as a methodology in three phases. In phase one, we developed the initial program theory (IPT), in phase two, we used contingent valuation as a quantitative approach and realist interview as qualitative method to validate the IPT. Lastly, in the third phase, we synthesized the results of the two investigative case studies to develop the actualized values sustainability framework. Such framework encapsulates, the actualized value propositions, mechanisms and enabling conditions in interactions to sustain the value propositions discovered in the e-Government investigative contexts. | 翻訳日:2023-03-17 18:54:22 公開日:2021-08-22 |
# 農家の気候リスク適応能力決定要因としての情報・ICTの役割 : インド・ハリアナにおける実証的研究 Role of Information and ICTs as Determinants of Farmer's Adaptive Capacity to Climate Risk: An Empirical Study From Haryana, India ( http://arxiv.org/abs/2108.09766v1 ) ライセンス: Link先を確認 | Priya Chetri, Upasna Sharma and P. Vigneswara Ilavarasan | (参考訳) 本研究は,インド・ハリアナ州6地区の463農家を対象とした一次データを用いて,農家の地域レベルでの適応能力の構成成分と,その強化方法について考察した。
本研究では,RStudio の lavaan パッケージを用いた経路解析手法を用いて情報の役割を実証的に検証する。
情報は農家の適応能力を高める直接的かつ重要な要因であることがわかった。
しかし、テクノロジー、特に情報通信技術(ICT)の利用が指数関数的に増加しても、小規模農家は天候や気候のリスクに対応する能力の妨げとなる情報にアクセスできない。
したがって、農業コミュニティによる情報の交換や利用をより効果的にするためのメカニズムを理解することが重要である。
我々は、ICTエコシステムを用いて運用されたICTのアンサンブルビューを取得し、学習と情報交換を容易にする情報、技術、ICTエコシステム間の重要な相互関係を見つけ、それゆえ、農家の適応能力の向上と気候ショックに対するレジリエンスの構築に寄与する。
我々は、ICTエコシステムが情報へのアクセスを促進し、また、農家の能力と、農業目的にICTを使用する意思の効果を仲介することを発見した。
健全なICTエコシステムの開発は、将来、農家が気候変動に対応するのに役立つだろう。 Using the primary data collected for 463 farmers in six districts of Haryana, India, the present study attempts to understand the constituents of farmer's adaptive capacity at local level and how it can be enhanced. We use path analysis technique using the lavaan package in RStudio to empirically test the role of information. We find that information is a direct and significant contributor to enhancing farmers' adaptive capacity. However, even with exponential growth in use of technology, particularly information and communication technologies (ICTs), small farmers still lack access to information which hinders their capacity to respond to weather and climate risks. Thus, understanding the mechanism that can facilitate exchange and use of information by the farming community more effectively is important. We take an ensemble view of ICTs operationalized using ICT ecosystem and find significant interlinkages between information, technology and the ICT ecosystem that facilitate learning and information exchange and therefore contribute to enhancing farmers' adaptive capacity and building resilience to climate shocks. We find that ICT ecosystem does facilitate access to information and also mediate the effect of farmer's capability and willingness to use ICTs for agricultural purposes. Development of sound ICT ecosystem is likely to help farmers to better respond to changing climate in the future. | 翻訳日:2023-03-17 18:53:58 公開日:2021-08-22 |
# 平面内を移動する電子系のコヒーレント状態:離散スペクトルの場合 Coherent states for a system of an electron moving in a plane: case of discrete spectrum ( http://arxiv.org/abs/2108.09765v1 ) ライセンス: Link先を確認 | Isiaka Aremua and Laure Gouba | (参考訳) 本研究では、離散スペクトルと連続スペクトルの両方を持つ均一な外部磁場および電場において、平面内を移動する電子の、量子系に関連するコヒーレント状態の異なるクラスを構築する。
固有関数は、関連するコヒーレント状態を構築するのに適した適当なヒルベルト空間の正規直交基底として実現される。
これらの後者は、両スペクトルが純粋に離散的に、コヒーレントな状態の族が満足しなければならないという基準に従うという文脈で達成される。 In this work, we construct different classes of coherent states related to a quantum system, recently studied in [1], of an electron moving in a plane in uniform external magnetic and electric fields which possesses both discrete and continuous spectra. The eigenfunctions are realized as an orthonormal basis of a suitable Hilbert space appropriate for building the related coherent states. These latter are achieved in the context where we consider both spectra purely discrete obeying the criteria that a family of coherent states must satisfies. | 翻訳日:2023-03-17 18:53:34 公開日:2021-08-22 |
# 学習管理システムを用いた緊急遠隔教育の記述--ICTによるレジリエンスに関する南アフリカのCOVID-19研究 Describing Emergency Remote Teaching using a Learning Management System: A South African COVID-19 Study of Resilience through ICT ( http://arxiv.org/abs/2108.09764v1 ) ライセンス: Link先を確認 | Ammar Canani and Lisa F. Seymour | (参考訳) 新型コロナウイルスの感染拡大に対抗するため、多くの学校が閉鎖を余儀なくされた。
南アフリカの小学校は、教育を支援するために学習管理システム(lms)を使うことに突然依存し、緊急の遠隔教育に移行せざるを得なかった。
LMSは小学校が予期せぬ出来事に対処するためにレジリエンスを構築するのを助けた。
lmsを遠隔教育に使用する際に直面する費用や制約、特に小学校の学習者(「z世代」)について研究する機会が生まれ、研究のほとんど無視された分野となった。
本研究は,小学校6校のケーススタディを通じて,小学校におけるLMS支援教育システムの可能性と制約について述べる。
学校, 学習者, 教師に関連する手当は, 金融, 技術, 学校, 学習者, 教師の視点から分類された。
lmsを通知板として使用することや、重要な利害関係者である両親を満足させることなどが注目に値する。
制約の面では、デジタル分割は繰り返しのテーマであり、デバイスとデータコストは一貫して制限であった。
LMS使用の可能性に気付いていない学校も多かった。
この研究は、小学校がLMSを授業に使いたいと願う場合に有用である。 In an effort to counter the spread of COVID-19 many schools were forced to shut down. Primary schools in South Africa were forced to shift to emergency remote teaching abruptly relying on using a Learning Management System (LMS) to aid their teaching. LMSs helped primary schools build resilience to cope with unexpected events. An opportunity rose to study the affordances and constraints faced when using a LMS for remote teaching, specifically for primary school learners ('Gen Z') - a largely ignored area of research. Through a case study of 6 schools, this research describes the affordances and constraints of the LMS supported teaching system in use in primary schools. Affordances related to schools, learners and teachers while constraints were classified from a financial, technological, school, learner and teacher perspective. Noteworthy affordances included using LMSs as notice boards and satisfying parents, the key stakeholders. In terms of constraints, the digital divide was a recurring theme while device and data costs were consistently a limitation. There were many cases of schools not realizing the full potential of LMS usage. This research should be useful for primary schools wanting to use a LMS for their teaching. | 翻訳日:2023-03-17 18:53:24 公開日:2021-08-22 |
# 気候変動脆弱性評価フレームワーク:空間的アプローチ A Climate Change Vulnerability Assessment Framework: A Spatial Approach ( http://arxiv.org/abs/2108.09762v1 ) ライセンス: Link先を確認 | Claudia C\'aceres, Yan Li and Brian Hilton | (参考訳) 気候変動は、雨、季節性パターン、既知の気温に大きく依存するため、特に低所得国の小農家にとって、あらゆる既知の社会に影響を与えている。
農村農家の間で気候変動に耐性のあるコミュニティを構築するためには、気候変動が人口に与える影響を理解することが第一歩となる。
本稿では、農村農家の気候変動脆弱性を評価するための気候変動脆弱性評価フレームワーク(CCVAF)を提案する。
CCVAFフレームワークは、地域レベルと個人レベルの指標を統合することで、農村農家の気候変動の脆弱性を評価するために情報通信技術(ICT)を使用している。
CCVAFは、西ホンジュラスの農村農家が気候変動がどのように影響しているかをよりよく評価するために、THRIVEという名前のGISベースのWebアプリケーションにインスタンス化された。
THRIVEの質的評価は、革新的で有用なツールであることを示した。
CCVAFは、気候変動の脆弱性評価の知識基盤だけでなく、気候変動の脆弱性評価ソリューションのクラスを設計するためのガイドラインを提供することによって、デザイン科学文献にも貢献している。 Climate change is affecting every known society, especially for small farmers in Low-Income Countries because they depend heavily on rain, seasonality patterns, and known temperature ranges. To build climate change resilient communities among rural farmers, the first step is to understand the impact of climate change on the population. This paper proposes a Climate Change Vulnerability Assessment Framework (CCVAF) to assess climate change vulnerabilities among rural farmers. The CCVAF framework uses information and communication technology (ICT) to assess climate change vulnerabilities among rural farmers by integrating both community level and individual household level indicators. The CCVAF was instantiated into a GIS-based web application named THRIVE for different decision-makers to better assess how climate change is affecting rural farmers in Western Honduras. Qualitative evaluation of the THRIVE showed that it is an innovative and useful tool. The CCVAF contributes to not only the knowledge base of the climate change vulnerability assessment but also the design science literature by providing guidelines to design a class of climate change vulnerability assessment solutions. | 翻訳日:2023-03-17 18:53:06 公開日:2021-08-22 |
# 女性の連帯とソーシャルメディア : ペルーのFacebookグループ#LasRespondonasにおける姉妹概念 Women's Solidarity and Social Media: Sisterhood Concept in #LasRespondonas, a Facebook group in Peru ( http://arxiv.org/abs/2108.09761v1 ) ライセンス: Link先を確認 | Juan Bossio and Illari Diez | (参考訳) ペルーの女性は毎日性暴力や排除に晒されている。
いくつかのフェミニストグループがソーシャルメディアを使って情報を共有し、議論し、非難し、組織し、被害者に援助を提供している。
この貢献は、女性の連帯、姉妹性、またはソロリダッドの意味を、フェミニストのfacebookグループ内のフェミニストの政治的概念として分析している。
グループコミュニケーションにおけるフェミニスト概念と姉妹性概念のクラスター化について,グループ出版物やコメントのレビューや,主要メンバーや現メンバーへのインタビューなどを通じて検討した。
姉妹性の概念はフェミニストの実践の中心であることが判明した。 Women in Peru are exposed daily to gender violence and exclusion. Several feminist groups have used social media to share information, debate, denounce, organize, and provide help to victims. This contribution analyzes the meaning of female solidarity, sisterhood or sororidad, as a feminist political concept among members of one feminist Facebook group. We reviewed the how various feminist and sisterhood concepts clustered together in the group communications by reviewing group publications and comments as far as interviewing key former and current members. The sisterhood concept was found to be central to feminist practice. | 翻訳日:2023-03-17 18:52:49 公開日:2021-08-22 |
# 農村部マイクロエントレプレナーのための電子商取引:マッピング制限、使用の生態と開発動向 E-commerce for Rural Micro-Entrepreneurs: Mapping Restrictions, Ecologies of Use and Trends for Development ( http://arxiv.org/abs/2108.09759v1 ) ライセンス: Link先を確認 | Aditi Bhatia-Kalluri | (参考訳) 本稿は,グローバル・サウスにおける地域マイクロ起業家の電子商取引を活用して市場を拡大する取り組みについて述べる。
本研究は、グローバル・サウスにおけるデジタル経済のブームであるインド下層社会経済的農村部からのマイクロ起業家販売業者による持続可能な市場としての電子商取引の導入について考察する。
ここでの「持続可能性」とは、農村のマイクロ起業家が繁栄するビジネスモデルとして、電子商取引を継続する持続可能な経済発展のモデルを指す。
本稿では,技術と貿易がマイクロアントレプレナーに与える影響を形作る要因を解体し,農村開発を考察する。
その目的は、農村のマイクロ起業家のための持続可能なマーケットプレースとして、eコマースの構築に貢献するためのレコメンデーションとソリューションを提供することだ。
インドにおける最近の情報と経済政策の変化は、モバイルインフラの拡大と農村部におけるユーザー基盤の拡大とともに、この研究をタイムリーかつ重要にしている。
インフラを精査し、ユーザの情報ニーズや課題を監査することにより、持続可能な経済発展の欠如につながるギャップを解明し、地方マイクロ起業家がオンライン販売を妨げている情報シンポジウムを行う。
論文の目的は、ビジネスソリューションとしてのeコマースの持続可能な発展におけるハードルを見つけることである。 This paper addresses the struggle of rural micro-entrepreneurs in the Global South in utilizing e-commerce to reach wider markets. This research paper looks at the adoption of e-commerce as a sustainable marketplace by the micro-entrepreneur sellers from the lower socio-economic rural communities in India, a booming digital economy in the Global South. 'Sustainability' here refers to a model for sustainable economic development sustaining the e-commerce as business model for the rural micro-entrepreneurs to flourish. This paper explores rural development by dismantling the factors that shape the ways technology and trade impact micro-entrepreneurs. The aim is to offer recommendations and solutions to contribute building the e-commerce as a sustainable marketplace for rural micro-entrepreneurs. Recent information and economic policy changes in India, along with the expansion of mobile infrastructure and a growing user base in rural regions makes this research timely and important. By scrutinizing the infrastructure and auditing the information needs and challenges of users, this research will illuminate the gaps that are leading to a lack of sustainable economic development, and information asymmetries discouraging the rural micro-entrepreneurs from selling online. The purpose of the paper is to find hurdles in the sustainable development of e-commerce as a business solution. | 翻訳日:2023-03-17 18:52:37 公開日:2021-08-22 |
# 危機時代の市場デジタル化とレジリエンス Market Digitalization and Resilience in Crisis Times ( http://arxiv.org/abs/2108.09802v1 ) ライセンス: Link先を確認 | Guillermo J. Larios-Hernandez | (参考訳) 本稿では,デジタルトランスフォーメーション(dt)の3次元,すなわち製品の性質,クライアントとのインタラクション,および業界プレーヤとの調整レベルを統合した概念的枠組みに基づいて,適応戦略の一部としてレジリエンスを求める上で,組織のデジタル化において文脈的危機要因が果たした影響のレベルを説明することを目的とする。
特にこの調査は、メキシコ企業の場合、新型コロナウイルス危機の生存戦略としてデジタル化の選択を分析するだろう。
この選択された国は、グローバル・サウスにおける研究対象として特に関心があり、公共政策はビジネス組織を維持・運営するためのほとんど支援を提供しておらず、起業家にはデジタル化を含むボトムアップのレジリエンス戦略を実践するしかない。
質的比較分析(QCA)は、特定の形態のデジタル化に繋がった新型コロナウイルスの危機に関連する文脈要因が果たす役割を説明する条件の組み合わせを特定するために提案されている。
危機に対する集団反応に関する知識を得るために、業界団体との半構造化インタビューも提案されている。 Based on a conceptual framework that integrates three dimensions of digital transformation (DT), namely, the nature of the product, client interaction, and the level of coordination with industry players, this paper aims to explain the level of influence that contextual crisis factors may have played in organizational digitalization choices in search for resilience as part of adaptation strategies. In particular, this investigation would analyze digitalization choices as survival strategies for COVID-19 crisis in the case of Mexican enterprises. The selected country is of particular interest as research target in the Global South, in that public policy has offered little support to keep business organizations up and running, leaving entrepreneurs with no other option but to implement bottom-up resilience strategies, including digitalization. Qualitative Comparative Analysis (QCA) has been proposed to identify combinations of conditions to explain the role played by COVID crisis-related contextual factors that may have led to particular forms of digitalization. Semi-structured interviews with industry associations are also proposed to gain knowledge about group responses to the crisis. | 翻訳日:2023-03-17 18:46:51 公開日:2021-08-22 |
# 南アフリカ地方政府のデジタル市民参加における権力参加--モビサムを事例として Power Participation in Digital Citizen Engagement in South African Local Government: The Case of MOBISAM ( http://arxiv.org/abs/2108.09798v1 ) ライセンス: Link先を確認 | Caroline Khene, Ingrid Sieb\"orger, Mamello Thinyane and Clement Simuja | (参考訳) サービス提供の欠如と説明責任は、南アフリカの多くの自治体(地方自治体)に特徴的な2つの課題である。
MobiSAMは、地方大学、市民社会、住民、地方政府間の協力的な取り組みとして導入され、デジタル市民のエンゲージメントを高め、地方政府と市民間の双方向コミュニケーションを促進し、基礎サービスの改善に寄与した。
プロジェクトを通じて、知識に関する権力が、地方政府と市民の間の交流や欠如に寄与していることが明らかとなった。
このワーク・イン・プログレッシブな論文は、プロジェクト内で処理される知識の性質と、異なるプロジェクトステークホルダー間で時間の経過とともに引き起こされる関連する知識創造プロセスを解き放って理解することで、MobiSAMプロジェクト(SECIモデルとPower Cubeを使用)におけるパワー/知識ダイナミクスの探索の旅を始めます。
プロジェクトの主要利害関係者間の知識の効果的な伝達、キャパシティ構築、組織学習における力の影響は、徹底的な調査と批判的分析を必要とする重要な問題として浮上している。
本研究は,MobiSAMプロジェクトにおける知識と力の相互作用に関連する研究成果の予備的枠組みについて述べる。
1)実現。
2)応答性のナビゲート,及び
3)創世。 A lack of service delivery and accountability are two characteristic challenges of numerous municipalities (local government) in South Africa. MobiSAM was introduced as a collaborative effort between a local university, civil society, residents, and local government to grow digital citizen engagement, facilitate two-way communication between local government and its citizenry, and contribute to the improved provision of basic services. Through the course of the project, it became clear that power, with respect to knowledge, was at play in the interactions or lack thereof between local government and citizens. This work-in-progress paper begins the journey of exploration of the power/knowledge dynamics at play in the MobiSAM project (using the SECI model and the Power Cube) by unpacking and understanding the nature of knowledge processed in the project and the associated knowledge creation processes that ensued between the different project stakeholders over time. The influence of power in determining the effective transfer of knowledge between key stakeholders of the project, for capacity building and organisational learning has emerged as an important issue in need of thorough investigation and critical analysis. This work in progress paper presents the preliminary framing of the research findings on the phases associated with the interplay of knowledge and power in the MobiSAM project, which are: 1) Realisation, 2) Navigating Responsiveness, and 3) Emergence. | 翻訳日:2023-03-17 18:46:16 公開日:2021-08-22 |
# 若者のスマートフォン所有のジェンダー化と自律性:インド農村の物語 Gendering of Smartphone Ownership and Autonomy among Youth: Narratives from Rural India ( http://arxiv.org/abs/2108.09788v1 ) ライセンス: Link先を確認 | Renza Iqbal | (参考訳) インド農村部における若者のインターネット利用において、性別はスマートフォンの所有と自律性にどのように影響するか?
本稿では,地域文化がスマートフォンの所有と自律性に与える影響を,地域インドの若者のエスノグラフィー研究を通じて調査し,ジェンダーと他のアイデンティティー軸の交叉を分析した。
その結果、若者のスマートフォンの所有と自律性は、社会的・文化的環境によって形成され、インターネット利用における様々な不平等につながる可能性が示唆された。
本研究は,スマートフォンの所有とインターネット利用に関して,性別がさまざまな差異を生んでいることを示す。
グローバル・サウスにおけるスマートフォンの所有と若者のインターネット利用パターンの理解の分離は、ユーザーエクスペリエンスのデザインとプラットフォームポリシーの再考を示唆している。 This study delves into the research question: how does gender influence smartphone ownership and autonomy in using the internet among the youth in rural India? This paper explores the influence of local culture on smartphone ownership and autonomy through an ethnographic study among rural Indian youth by analysing the intersection of gender with other identity axes. The findings show that young people's smartphone ownership and autonomy is shaped by their social and cultural setting, and could lead to various inequalities in their internet usage. This study shows that gender paves way for various disparities with regard to smartphone ownership and internet usage. Decolonisation of the understanding of smartphone ownership and internet usage patterns of the youth in the Global South suggests a reconsideration of the user experience designs and platform policies. | 翻訳日:2023-03-17 18:45:28 公開日:2021-08-22 |
# グローバル・サウスにおけるデジタル・ディバイドからデジタル・ジャスティスへ:逆デジタル・インクルージョンの概念化 From Digital Divide to Digital Justice in the Global South: Conceptualising Adverse Digital Incorporation ( http://arxiv.org/abs/2108.09783v1 ) ライセンス: Link先を確認 | Richard Heeks | (参考訳) デジタルと不平等の結びつきは、伝統的にデジタル分割やデジタル不平等の形で理解されており、その中核となる概念化は除外されている。
本稿は、世界南部がデジタル化の幅と深度を拡大するデジタル開発パラダイムに移行するにつれ、排除的世界観はもはや不十分であると主張している。
この論文は、発達研究における慢性的な貧困に関する文献から、新たな概念の必要性を論じるものである。「逆デジタル化」とは、より先進的なグループが、他の先進的でないグループの作業や資源から不均等な価値を抽出できるデジタルシステムに含めることを意味する。
これはなぜ不平等がデジタル開発パラダイムで持続するのかを説明している。
今後の研究と実践を支援するため,本論文では,プロセス,ドライバ,有害なディジタル化の原因の3つの主要な構成要素からなる,有害なデジタル化の概念モデルを誘導的に構築する。
本稿は、現在、デジタルと不平等の包摂的関係を形作る力のより広範な構成要素を再構成するために必要な、グローバル・サウスにおけるデジタル正義の実現を目指す将来の研究と実践の課題について考察する。 The connection between digital and inequality has traditionally been understood in terms of the digital divide or of forms of digital inequality whose core conceptualisation is exclusion. This paper argues that, as the global South moves into a digital development paradigm of growing breadth and depth of digital engagement, an exclusion worldview is no longer sufficient. Drawing from ideas in the development studies literature on chronic poverty, the paper argues the need for a new concept: "adverse digital incorporation", meaning inclusion in a digital system that enables a more-advantaged group to extract disproportionate value from the work or resources of another, less-advantaged group. This explains why inequality persists - even grows - in a digital development paradigm. To help ground future research and practice on this issue, the paper inductively builds a conceptual model of adverse digital incorporation with three main component sets: the processes, the drivers, and the causes of adverse digital incorporation. The paper concludes with thoughts on a future research and practice agenda that seeks to deliver digital justice in the global South: a necessary reconfiguration of the broader components of power that currently shape the inclusionary connection between digital and inequality. | 翻訳日:2023-03-17 18:44:49 公開日:2021-08-22 |
# 脆弱移民に対するictの自由度と専制:現状, ギャップ, 方向性 The Liberalities and Tyrannies of ICTs for Vulnerable Migrants: The Status Quo, Gaps and Directions ( http://arxiv.org/abs/2108.09782v1 ) ライセンス: Link先を確認 | Yidnekachew Redda Haile | (参考訳) 情報通信技術(ICT)は、紛争や暴力、人権侵害などにより8000万人近くが追放されたことを含め、この動きで人々にとってますます重要になっている。
しかし、既存のictや移民に関する研究は、主にこれらの地域の研究者の視点で、移民のict利用や先進国内でのみ焦点を絞っており、研究の重要な目的を理解するのに非常に困難である。
さらに、ICTは「二重刃の剣」であり、大きなリスク、負担、圧力、不平等の課題があるにもかかわらず、移民の合理的な判断において解放され、活用できるとしばしば祝われる。
本稿は,これらの限界に対処し,今後の方向性を照らし出すため,まず,既存の研究成果であるictの解放的・権威的役割,特に脆弱な移民に対する役割を精査し,研究領域における重要な課題を解明する。
第2に、将来の研究における重要なギャップと機会を特定する。
1990-2020年に公表されたICTとマイグレーション・開発に関する幅広い文献を整理した手法を用いて,主要なテーマ,主要な技術,方法論・理論・概念を批判的に評価した157の出版物について調査を行った。
さらに,ictとマイグレーション/開発における既存の研究対象と欠落対象の両方に関する重要な洞察,トレンド,ギャップ,今後の研究機会が注目される。 Information and communication technologies (ICTs) have increasingly become vital for people on the move including the nearly 80 million displaced due to conflict, violence, and human right violations globally. However, existing research on ICTs and migrants, which almost entirely focused on migrants' ICT use 'en route' or within developed economies principally in the perspectives of researchers from these regions, is very fragmented posing a difficulty in understanding the key objects of research. Moreover, ICTs are often celebrated as liberating and exploitable at migrants' rational discretion even though they are 'double-edged swords' with significant risks, burdens, pressures and inequality challenges particularly for vulnerable migrants including those forcefully displaced and trafficked. Towards addressing these limitations and illuminating future directions, this paper, first, scrutinises the existing research vis-a-vis ICTs' liberating and authoritarian role particularly for vulnerable migrants whereby explicating key issues in the research domain. Second, it identifies key gaps and opportunities for future research. Using a tailored methodology, broad literature relating to ICTs and migration/development published in the period 1990-2020 was surveyed resulting in 157 selected publications which were critically appraised vis-a-vis the key themes, major technologies dealt with, and methodologies and theories/concepts adopted. Furthermore, key insights, trends, gaps, and future research opportunities pertaining to both the existing and missing objects of research in ICTs and migration/development are spotlighted. | 翻訳日:2023-03-17 18:44:24 公開日:2021-08-22 |
# グローバルトランスファー:M-Pesa、知的財産権、デジタルイノベーション Global Transfers: M-Pesa, Intellectual Property Rights and Digital Innovation ( http://arxiv.org/abs/2108.09781v1 ) ライセンス: Link先を確認 | Christopher Foster | (参考訳) 2020年7月、新型コロナウイルス危機の最中、ケニアの移動事業者Safaricomは、モバイルマネーサービスM-Pesaの知的財産権(IPR)が「アフリカ支配に移行している」と発表した。
本稿は,m-pesaを包括的イノベーションとして理解する上での意義と,ケニア以外でのiprの開催の経緯について述べる。
IPRとイノベーションのこの分析を反映して、世界南部におけるデジタルイノベーションの構造的側面に関する議論に貢献する。
IPRに焦点を当てることで、グローバル知的財産制度と国境を越えたITPの実践が不均一な結果と力を形作る過程の一部を解き放つ。 In July 2020, in the midst of the COVID crisis, the Kenyan mobile operator Safaricom announced that the intellectual property rights (IPR) for mobile money service M-Pesa were "moving back into African control". This paper tracks how the IPR originally came to be held outside Kenya, and the implications for understanding M-Pesa as an inclusive innovation. Through reflection of this analysis of IPR and innovation, the paper contributes to discussions on structural aspects of digital innovation in the global south. By focussing on IPR, it unpacks some of the processes by which global intellectual property regimes and cross-border IPR practices shape uneven outcomes and power. | 翻訳日:2023-03-17 18:43:58 公開日:2021-08-22 |
# ictアーティファクトを能力的アプローチに段階的に配置する Holistically Placing the ICT Artefact in Capability Approach ( http://arxiv.org/abs/2108.09780v1 ) ライセンス: Link先を確認 | Mathew Masinde Egessa and Samuel Liyala | (参考訳) 本稿では,情報通信技術(ICT)アーティファクト・イン・キャパビリティ・アプローチ(CA)を体系的に配置する枠組みを提案する。
このフレームワークは、ICT4DにおけるCAベースのフレームワークにおける技術の異なる概念化を調和させ、不整合に対処する。
この枠組みを説明するために、2015年以降のICT4D研究の最重要課題であるケニアの農村部に住むペイ・アズ・ユー・ゴー(PAYGO)ソーラー・ホーム・システムズ(Solar Home Systems)のユーザーから一次データを収集した。
この枠組みを用いて、ICT-アーティファクトは、材料資源を能力入力として、変換因子(技術変換因子)の新たなカテゴリとして、構造的文脈におけるコンポーネントとして、CAの3つの概念の中で、全体論的に概念化できることを明らかにした。
この研究は、同じICTアーチファクトが3つの異なる概念化の中でどのように機能し、個人に対して異なる開発結果をもたらすかをさらに実証した。
この研究は最終的に政策と実践の意味を提示する。 This paper proposes a framework that holistically places the Information and Communication Technology (ICT) Artefact in Capability Approach (CA). The framework harmonises the different conceptualisations of technology within CA-based frameworks in ICT4D, in order to address the inconsistencies. To illustrate the framework, while simultaneously addressing the highest thematic research gap among post-2015 ICT4D research priorities, the study collected primary data from users of Pay-As-You-Go (PAYGO) Solar Home Systems who reside in rural Kenya. Using the framework, the study revealed that the ICT-artefact can holistically be conceptualised within three of CA's concepts: under material resources as a capability input; as a new category of conversion factors (technological conversion factors); and as a component within the structural context. The study further demonstrated how the same ICT artefact could play out in the three different conceptualisations, resulting in different development outcomes for individuals. The study finally presents the implications for policy and practice. | 翻訳日:2023-03-17 18:43:45 公開日:2021-08-22 |
# トラップされた2レベル原子の外部光場における量子熱力学 Quantum thermodynamics of a trapped two-level atom in an external light field ( http://arxiv.org/abs/2108.09822v1 ) ライセンス: Link先を確認 | A. Moradian and F. Kheirandish | (参考訳) 制御光場の影響下で捕獲された2レベル原子の量子熱力学について検討した。
人口動態と非一貫性関数を求め,議論した。
特性関数、ワーク分布関数、ヘルムホルツ自由エネルギーを計算し、ジャージンスキーの定理との整合性を検証する。 Quantum thermodynamics of a trapped two-level atom under the influence of a controlled light field is investigated. The population dynamics and decoherency function are obtained and discussed. The characteristic functions, work distribution functions and Helmholtz free energies are calculated and the consistency with the Jarzynski theorem is verified. | 翻訳日:2023-03-17 18:36:36 公開日:2021-08-22 |
# 量子構造の論理的側面 Logical aspects of quantum structures ( http://arxiv.org/abs/2108.09819v1 ) ライセンス: Link先を確認 | John Harding and Zhenghan Wang | (参考訳) 量子構造の論理的側面に関するいくつかの問題を調査する。
特に, 完備性, 決定可能性, 公理化可能性, 埋め込み問題に関する問題を考える。
歴史的発展と近年の進展といくつかの道のりが述べられている。 We survey several problems related to logical aspects of quantum structures. In particular, we consider problems related to completions, decidability and axiomatizability, and embedding problems. The historical development is described, as well as recent progress and some suggested paths forward. | 翻訳日:2023-03-17 18:36:31 公開日:2021-08-22 |
# 離散時間量子ウォークの平均探索確率 The average search probabilities of discrete-time quantum walks ( http://arxiv.org/abs/2108.09818v1 ) ライセンス: Link先を確認 | Hanmeng Zhan | (参考訳) 離散時間量子ウォークがグラフ上のマークされた頂点を見つける平均確率について検討する。
まず、正則グラフに対して、遷移行列のスペクトルは拡張グラフの重み付き隣接行列によって決定されることを示す。
次に、距離正則グラフ上での平均探索確率を考慮し、頂点削除部分グラフの隣接行列の式を求める。
特に、(1)完全グラフ、(2)強正則グラフ、または(3)固定パラメータ $d$ の距離正則グラフ、可変価数 $k$ および可変サイズ $n$ の任意の族に対して、$k$ が増加するにつれて$k^{d-1}/n$ が消えるように、平均探索確率は無限大になるにつれて 1/4$ に近づく。
また、この限界が距離正規グラフによってアプローチされるように、交差配列の観点からより緩和された基準も提示する。 We study the average probability that a discrete-time quantum walk finds a marked vertex on a graph. We first show that, for a regular graph, the spectrum of the transition matrix is determined by the weighted adjacency matrix of an augmented graph. We then consider the average search probability on a distance regular graph, and find a formula in terms of the adjacency matrix of its vertex-deleted subgraph. In particular, for any family of (1) complete graphs, or (2) strongly regular graphs, or (3) distance regular graphs of a fixed parameter $d$, varying valency $k$ and varying size $n$, such that $k^{d-1}/n$ vanishes as $k$ increases, the average search probability approaches $1/4$ as the valency goes to infinity. We also present a more relaxed criterion, in terms of the intersection array, for this limit to be approached by distance regular graphs. | 翻訳日:2023-03-17 18:36:28 公開日:2021-08-22 |
# 開発途上国における災害対応改善のための統合的知識管理・情報通信技術フレームワークの提案 Towards an Integrated Knowledge Management and Information and Communication Technology Framework for Improving Disaster Response in a Developing Country Context ( http://arxiv.org/abs/2108.09813v1 ) ライセンス: Link先を確認 | Teurai Matekenya and Ephias Ruhode | (参考訳) 本論文は,ジンバブエにおける災害情報の調整とコラボレーションのギャップに対処するため,進行中のプロジェクトの一部である。
ジンバブエでは、自然災害や非常事態に関する情報や知識が欠如している。
この結果、緊急事態に対処するさまざまな組織間の協力関係が弱まり、意思決定プロセスが遅くなり、応答時間が長くなる。
これは影響を受けた地域社会に悪影響を与え、ジンバブエの貧困を悪化させる。
これは、近年の壊滅的なサイクロン・イダイで、多くの人々が死亡し、インフラが破壊され、一部が倒産したことが証明されている。
そこで本研究では,危機対応者間の協調と協調を支援する統合的知識管理・ictフレームワークの開発を目指している。
これはジンバブエ市民保護部隊を用いたケーススタディアプローチによって達成される。
DSRM内のPARは、NGOの回答者、従来のリーダ、災害対応の専門家とともに、CPUからのデータ収集に使用される。
結果は文献に収集された二次データと比較・対比され、収集されたデータは自家製のコーディネーション・コラボレーション・ソリューションの開発に使用される。
データ収集に対する質的アプローチは、インタビュー、ビジョンワークショップ、ドキュメント分析を使って採用される。 This paper is part of an ongoing project that seeks to address a gap in disaster information coordination and collaboration in Zimbabwe. There is lack of coordinated information and knowledge in natural disaster and emergency situations in Zimbabwe. This results in weak collaboration links among the various organizations that respond to emergencies, leading to slow decision making processes and long response times. This negatively affects the affected communities, exacerbating poverty in Zimbabwe. This has been evidenced in the recent catastrophic cyclone Idai where many people were left dead, infrastructure destroyed and some people marooned. To address this, the research seeks to develop an integrated Knowledge Management and ICT framework that aid in coordination and collaboration among the various crisis responders. This will be achieved through a case study approach using Zimbabwe's Civil Protection Unit. PAR within DSRM will be used to gather data from CPU as well as with NGO respondents, traditional leaders and disaster response experts. Findings will be compared and contrasted with secondary data gathered in literature, this, with collected data will be used in developing a home grown coordination and collaboration solution. Qualitative approach to data collection will be adopted using interviews, visioning workshops and document analysis. | 翻訳日:2023-03-17 18:36:09 公開日:2021-08-22 |
# 二次ハミルトニアンによって記述された駆動散逸系の厳密な密度行列要素 Exact density matrix elements for a driven dissipative system described by a quadratic Hamiltonian ( http://arxiv.org/abs/2108.09812v1 ) ライセンス: Link先を確認 | Sh. Saedi and F. Kheirandish | (参考訳) 駆動散逸系を記述する原型二次ハミルトニアンに対して、還元密度行列の正確な行列要素は、通常の特性関数の観点から生成関数から得られる。
このアプローチはハイゼンベルクの運動方程式と作用素計算に基づいている。
特別事例と限定事例について論じる。 For a prototype quadratic Hamiltonian describing a driven, dissipative system, exact matrix elements of the reduced density matrix are obtained from a generating function in terms of the normal characteristic functions. The approach is based on the Heisenberg equations of motion and operator calculus. The special and limiting cases are discussed. | 翻訳日:2023-03-17 18:35:49 公開日:2021-08-22 |
# 宇宙生産におけるモメント : ジンバブエにおける青少年と若い女性の健康情報システムの開発 Moments in the Production of Space: Developing a Generic Adolescent Girls and Young Women Health Information Systems in Zimbabwe ( http://arxiv.org/abs/2108.09811v1 ) ライセンス: Link先を確認 | Rangarirai Matavire, J{\o}rn Braa, Shorai Huwa, Lameck Munangaidzwa, Zeferino Saugene, Isaac Taramusi and Bob Jolliffe | (参考訳) 2030年までにエイズを終わらせ、新たなHIV感染症を排除しようとする世界的な目標により、特にサブサハラアフリカでは、青少年少女と若い女性(AGYW)は特に脆弱である。
そのため、多くの国が、限られた教育、早期結婚、貧困、家庭内暴力、男性パートナーによる露出など、脆弱性の要因を取り除くためのサービスを提供している。
この文脈では、セックスワーカーのようなサブポピュレーションはAGYWの脆弱性を増大させ、予防プログラムを通じてサポートされる。
本研究は、AGYWイニシアチブの成功をモニターし、評価する手段を提供するための、総合的な健康情報システムソリューションを開発するプロジェクトに続くものである。
これは、Henri Lefebvre のモーメント理論から理論的なアイデアを借りて、解の開発空間が生成される過程を記述する。 With global targets to end AIDS by 2030 and to eliminate new HIV infections, Adolescent Girls and Young Women (AGYW) are seen to be particularly vulnerable, especially in Sub Saharan Africa. Numerous nations have therefore rolled out interventions to provide services to remove the determinants of vulnerability, such as limited education, early marriage, poverty, domestic violence, and exposure by male partners. Within this context, subpopulations such as sex workers increase the vulnerability amongst AGYW and are also supported through prevention programming. This study follows a project to develop a generic health information systems solution to provide a means to monitor and evaluate the successes of the AGYW initiative in reducing new infections. It borrows theoretical ideas from Henri Lefebvre's theory of moments to describe the process in which the space for the development of the solution is produced. | 翻訳日:2023-03-17 18:35:43 公開日:2021-08-22 |
# ICT4Dにおけるレジリエンスとサステナビリティ向上のためのネットワークウィービング Network Weaving to Foster Resilience and Sustainability in ICT4D ( http://arxiv.org/abs/2108.09808v1 ) ライセンス: Link先を確認 | Mario A. Marais and Sara Vannini | (参考訳) ICT4D(Information and Communication Technologies for Development)では、プロジェクトの持続可能性とレジリエンスに重点を置いている。
長年にわたり、学者はこれらの目標を達成するために多くの要素を特定してきた。
それでも、それらを達成するための障壁は、この分野における一般的な現実である。
本稿では,ict4dの奨学・実践において,持続性とレジリエンスを実現する手段として,コミュニティの関係性,自己組織性,社会資本,それらを可能にする人々のネットワークに特別な注意を払うことを提案する。
システムや権力に焦点をあてることなく理解できない力として、社会変革に関するグリーンの研究(2016年)に基づいて、ICT4Dは、社会資本を意図的に成長させ、システム内のネットワークを育むことの恩恵をもたらすと我々は主張する。
実践的なアプローチとしてネットワークウィービング(holley,2013)を提案し,研究者のコミュニティ意識を含め,既存のict4dフレームワークやプラクティスを補完し,発展させる可能性について検討する。 A number of studies in Information and Communication Technologies for Development (ICT4D) focus on projects' sustainability and resilience. Over the years, scholars have identified many elements to enable achievement of these goals. Nevertheless, barriers to achieving them are still a common reality in the field. In this paper, we propose that special attention should be paid to communities' relationships, self-organizing, and social capital - and the people's networks that enable them - within ICT4D scholarship and practice, as a way to achieve sustainability and resilience. Building on Green's work (2016) on social change as a force that cannot be understood without focusing on systems and power, we claim that ICT4D would benefit from intentionally growing social capital and fostering networks within its systems. We propose "network weaving" (Holley, 2013) as a practical approach, and we explore its potential to complement and advance existing ICT4D frameworks and practices, including the sense of community of the researchers themselves. | 翻訳日:2023-03-17 18:35:25 公開日:2021-08-22 |
# マラウイにおける女性マイクロエンターテイメントのICT利用と生活 ICT Use and Livelihoods of Women Microenterprises in Malawi ( http://arxiv.org/abs/2108.09807v1 ) ライセンス: Link先を確認 | Donald Flywell Malanga and Memory Banda | (参考訳) 本研究は,マラウイにおける女性のマイクロエンタプライズに対するICTの影響を評価することを目的とした。
この研究は、半構造化インタビュー、観察、フィールドノートを用いてデータを収集する解釈的質的アプローチであった。
マラウイのカロンガ地区の3つの農村地域の様々なマイクロエンタプライズに関わる約25人の女性が、この研究に参加するために純粋に選ばれた。
この研究の枠組みは、セラトの持続可能な生活アプローチに基づいている。
この研究によると、ICTを使うことで、女性のマイクロエンタプライズたちが財務、人的、社会的、情報的資本資産を構築することが可能になった。
調査の結果、ICTは情報へのアクセスの向上、事業機会の多様化、コミュニケーションの改善、マーケティングの改善、輸送コストの削減など、女性のマイクロエンタプライズ生活にある程度貢献していることがわかった。
その結果、持続可能な資源の使用、幸福の向上、女性へのエンパワーメントがもたらされた。
しかし、信頼性の低い電気、安価なICT機器の欠如、企業におけるICT活用意識の欠如、ICTリテラシースキルの欠如は、女性のマイクロエンタプライズに影響を及ぼす大きな懸念であった。
この研究は、マラウイの農村部における女性のマイクロ起業家育成におけるICTの役割について、専門家、政策立案者、その他のステークホルダーに洞察を与える。 This study aimed to assess the impacts of ICTs on livelihoods of women microenterprises in Malawi. The study was an interpretive qualitative approach in which semi-structured interviews, observation and field notes were used to collect data. About 25 women involved in various microenterprises in three rural areas of Karonga district in Malawi were purposively selected to participate in the study. The framework for the study was based on Serrat's sustainable livelihood approach. The study noted that the use of ICTs potentially enabled women microenterprises to build their financial, human, social, and informational capital assets. The study found that ICTs to some extent contributed to the livelihoods of women microenterprises such as improved access to information; diversification of business opportunities, improved communication, improved marketing, and reduced transport costs. As a result, this led to sustainable use of resources, improved well-being, and empowerment for women. However, unreliable electricity; lack of affordable ICT devices; lack of awareness to utilise ICTs in businesses and lack of ICT literacy skills were major concerns that affected women microenterprises. The study offers insights to research practioners, policy makers and other stakeholders on the role of ICTs in fostering women microentrepreneurship in rural communities of Malawi. | 翻訳日:2023-03-17 18:35:09 公開日:2021-08-22 |
# マラウイにおける女性に対するサイバー暴力の実態調査 Survey of Cyber Violence Against Women in Malawi ( http://arxiv.org/abs/2108.09806v1 ) ライセンス: Link先を確認 | Donald Flywell Malanga | (参考訳) 本研究の目的はマラウイのカロンガ地区における女性に対するサイバー暴力の頻度を調べることである。
この研究は記述的な調査デザインを採用した。
調査には約67人の女性が参加した。
この研究は、Technology Facilitated Gender-Based Violence Frameworkを理論レンズとして利用した。
この研究によると、女性はサイバーいじめ、サイバーハラスメント、オンライン不名誉、サイバーストーキング、性的搾取、オンラインヘイトスピーチ、リベンジポルノなど、さまざまなタイプのサイバー暴力を経験した。
犯人はFacebook、WhatsApp、オンラインの個人アカウント、デートサイト、スマートフォンなどのデジタルプラットフォームを使って悪行を行った。
この研究はまた、加害者の動機は復讐、怒り、妬み、性的欲望、政治的アジェンダによって引き起こされ、被害者を社会的、心理的、経済的、物理的に傷つける意図があったことを見出した。
女性たちは、対決や加害者をブロックしたり、オンラインプラットフォームを離れることで対処した。
女性たちは、認識の欠如、文化的、父長制的な要因から、警察や地域社会に支援を求める機会を報告しなかった。
結論として、マラウイでは女性に対するサイバー暴力の流行が著しく増加している。
そのため、この調査結果は、政策立案者や研究実践者に、国内の女性に対するサイバー暴力対策の実施方法に関する洞察を与えている。 The purpose of this study was to investigate the prevalence of cyber violence against women in Karonga district of Malawi. The study adopted a descriptive survey design. About 67 women participated in the survey questionnaire. The study utilised Technology Facilitated Gender-Based Violence Framework as theoretical lens. The study noted that women experienced various forms of cyber violence such as cyber bullying, cyber harassment, online defamation, cyberstalking, sexual exploitation, online hate speech, and revenge pornography. Perpetrators used digital platforms such Facebook, WhatsApp, online personal accounts, dating sites, and smartphones to carry out their evil acts. The study also found that perpetrators' motivations were driven by revenge, anger, jealousy, sexual desire and political agenda, with the intentions to harm the victims socially, psychologically, economically, and physically. The women used coping measures such as confrontation and blocking the perpetrator or by leaving the online platform. It was found that women never bothered to report the incidences to the police or community to seek for support due to lack of awareness, cultural and patriarchal factors. In conclusion, the study found that the prevalence of cyber violence against women is rising significantly in Malawi. Therefore, the findings provide insights to policy makers and research practioners on how to implement strategies for combating cyber violence against women in the country. | 翻訳日:2023-03-17 18:34:46 公開日:2021-08-22 |
# 発展途上国におけるE-Government Service Gapsの促進要因 Factors Enhancing E-Government Service Gaps in a Developing Country Context ( http://arxiv.org/abs/2108.09803v1 ) ライセンス: Link先を確認 | Gilbert Mahlangu and Ephias Ruhode | (参考訳) グローバルに、e- Governmentの談話は公共サービス提供の勢いを増している。
電子政府の実施には触れられていない国はない。
いくつかの政府機関は、現在、情報通信技術(icts)を使用して、市民、他の政府機関、企業に政府サービスや情報を届けている。
しかし、政府のほとんどの部門は、電子的にまたは少なくとも最も重要なサービスをすべて提供していない。
これにより、e-government serviceのギャップが生まれる。
本研究の目的は,発展途上国におけるE政府サービスギャップを増大させる文脈要因を検討することである。
この目的を達成するために、TOEフレームワークはデータ収集と分析をガイドする定性的なケーススタディと共に採用された。
データは、ジンバブエにおけるe-government servicesの実施に携わる政府職員や市民や企業からの半構造化インタビューを通じて収集された。
11の因子が同定され、toeフレームワークでグループ化された。
本研究はジンバブエにおけるe- Governmentサービスの実装と活用に大きく貢献する。
この研究は、研究モデルで探索されたE政府サービスギャップを増大させる要因について、強力な理論的理解を提供するのにも貢献する。 Globally, the discourse of e-government has gathered momentum in public service delivery. No country has been left untouched in the implementation of e-government. Several government departments and agencies are now using information and communication technology (ICTs) to deliver government services and information to citizens, other government departments, and businesses. However, most of the government departments have not provided all of their services electronically or at least the most important ones. Thus, this creates a phenomenon of e-government service gaps. The objective of this study was to investigate the contextual factors enhancing e-government service gaps in a developing country. To achieve this aim, the TOE framework was employed together with a qualitative case study to guide data collection and analysis. The data was collected through semi-structured interviews from government employees who are involved in the implementation of e-government services in Zimbabwe as well as from citizens and businesses. Eleven (11) factors were identified and grouped under the TOE framework. This research contributes significantly to the implementation and utilisation of e-government services in Zimbabwe. The study also contributes to providing a strong theoretical understanding of the factors that enhance e-government service gaps explored in the research model. | 翻訳日:2023-03-17 18:34:21 公開日:2021-08-22 |
# マルチ式プログラミングを用いた進化的アルゴリズム Evolving Evolutionary Algorithms using Multi Expression Programming ( http://arxiv.org/abs/2109.13737v1 ) ライセンス: Link先を確認 | Mihai Oltean and Crina Gro\c{s}an | (参考訳) 進化的アルゴリズム(ea)のための最適なパラメータ設定(最適な集団サイズ、最適突然変異確率、最適進化モデルなど)を見つけることは難しい課題である。
アルゴリズムのパラメータだけを進化させる代わりに、特定の問題を解決することができるEA全体を進化させます。
このため、MEP(Multi Expression Programming)技術が用いられる。
各MEP染色体は複数のEAをコードする。
本稿では,機能最適化のための非世代EAについて述べる。
数値実験はこのアプローチの有効性を示している。 Finding the optimal parameter setting (i.e. the optimal population size, the optimal mutation probability, the optimal evolutionary model etc) for an Evolutionary Algorithm (EA) is a difficult task. Instead of evolving only the parameters of the algorithm we will evolve an entire EA capable of solving a particular problem. For this purpose the Multi Expression Programming (MEP) technique is used. Each MEP chromosome will encode multiple EAs. An nongenerational EA for function optimization is evolved in this paper. Numerical experiments show the effectiveness of this approach. | 翻訳日:2023-03-17 18:26:28 公開日:2021-08-22 |
# 新型コロナウイルス(covid-19)に感染した難民キャンプのプロジェクトから学んだ教訓 Key Lessons Learned from Working During Covid-19 on a Project in the World's Biggest Refugee Camp ( http://arxiv.org/abs/2108.12286v1 ) ライセンス: Link先を確認 | Faheem Hussain and Suzana Brown | (参考訳) この研究は、ケーススタディ構造を用いて、コビッド19期の人道的プロジェクトに取り組むことの難しさを詳述する。
著者らは6つの課題を特定し、これらの課題に対応するイノベーションを提案する。
サプライチェーン,ソリューションの設計,人材開発,接続性,ユーザデータ収集といった課題だ。
この前例のない状況は、紛争地帯で働くための新しい革新的なソリューションのテスト場となった。 Using a case study structure, this research-in-progress paper elaborates the struggles of working on a humanitarian project during the Covid-19 period. The authors identify six specific challenges and propose innovations to address each of these challenges. The challenges are the following: supply chain, design of solutions, human resource development, connectivity, and user data collection. This unprecedented situation has been a testing ground for new innovative solutions for work in conflict zones. | 翻訳日:2023-03-17 18:26:21 公開日:2021-08-22 |
# 情報システム分野におけるジェンダーバイアスの評価--引用への影響の分析 Assessing Gender Bias in the Information Systems Field: An Analysis of the Impact on Citations ( http://arxiv.org/abs/2108.12255v1 ) ライセンス: Link先を確認 | Silvia Masiero and Aleksi Aaltonen | (参考訳) ジェンダーバイアスは、特定の領域における男女の扱いの体系的かつ不公平な違いであり、様々な学術分野において広く研究されている。
しかし、学術情報システム(is)の分野におけるこの現象の研究はほとんど存在せず、科学、技術、数学、技術(stem)分野におけるそのような研究の急増に照らして特に驚きである。
is分野における潜在的なジェンダーバイアスを評価するために,本論文では,女性が学界に蓄積されているという学術的引用の影響を推定する研究について概説する。
AIS Basket of Eightとして知られるISジャーナルに掲載された7,260の論文の科学的研究に基づいて、この分野における性別間の引用の蓄積に関する潜在的なバイアスを明らかにすることを目的としている。
パネルレグレッションを用いて,この分野における引用の蓄積度を推定する。
そうすることで、これまでis分野でほとんど完全に未調査であった学界におけるジェンダーバイアスのコアディメンジョンに関する知識を寄与させることを提案する。 Gender bias, a systemic and unfair difference in how men and women are treated in a given domain, is widely studied across different academic fields. Yet, there are barely any studies of the phenomenon in the field of academic information systems (IS), which is surprising especially in the light of the proliferation of such studies in the Science, Technology, Mathematics and Technology (STEM) disciplines. To assess potential gender bias in the IS field, this paper outlines a study to estimate the impact of scholarly citations that female IS academics accumulate vis-\`a-vis their male colleagues. Drawing on a scientometric study of the 7,260 papers published in the most prestigious IS journals (known as the AIS Basket of Eight), our analysis aims to unveil potential bias in the accumulation of citations between genders in the field. We use panel regression to estimate the gendered citations accumulation in the field. By doing so we propose to contribute knowledge on a core dimension of gender bias in academia, which is, so far, almost completely unexplored in the IS field. | 翻訳日:2023-03-17 18:26:12 公開日:2021-08-22 |
# セマンティック型予測と大規模データセットによる広域医療エンティティリンクの改善 Improving Broad-Coverage Medical Entity Linking with Semantic Type Prediction and Large-Scale Datasets ( http://arxiv.org/abs/2005.00460v4 ) ライセンス: Link先を確認 | Shikhar Vashishth, Denis Newman-Griffis, Rishabh Joshi, Ritam Dutt, Carolyn Rose | (参考訳) 医療エンティティリンク(medical entity link)は、非構造化テキストで言及される医療概念を識別し、標準化するタスクである。
既存の手法のほとんどは,(1)言及の検出,(2)候補概念の一覧の作成,(3)最良概念の選定という3段階のアプローチを採用している。
本稿では,医療機関リンクの最も未研究の要素である候補生成モジュールにおける候補概念のオーバージェネレーションの問題について検討する。
そこで我々は,エンティティ参照の予測意味型に基づいて,無関係な候補概念を探索する完全モジュラーシステムであるmedtypeを提案する。
我々は、MedTypeを医療エンティティリンクのための5つの既製のツールキットに統合し、いくつかのベンチマークデータセットにおけるエンティティリンク性能が一貫して改善されていることを示す。
医療機関リンクのための注釈付きトレーニングデータの変形に対処するため、データセットをリンクする大規模医療機関であるWikiMedとPubMedDSを提示し、これらのデータセット上でMedTypeを事前学習することで、エンティティリンク性能がさらに向上することを示した。
ソースコードとデータセットを医療機関のリンク研究のために公開しています。 Medical entity linking is the task of identifying and standardizing medical concepts referred to in an unstructured text. Most of the existing methods adopt a three-step approach of (1) detecting mentions, (2) generating a list of candidate concepts, and finally (3) picking the best concept among them. In this paper, we probe into alleviating the problem of overgeneration of candidate concepts in the candidate generation module, the most under-studied component of medical entity linking. For this, we present MedType, a fully modular system that prunes out irrelevant candidate concepts based on the predicted semantic type of an entity mention. We incorporate MedType into five off-the-shelf toolkits for medical entity linking and demonstrate that it consistently improves entity linking performance across several benchmark datasets. To address the dearth of annotated training data for medical entity linking, we present WikiMed and PubMedDS, two large-scale medical entity linking datasets, and demonstrate that pre-training MedType on these datasets further improves entity linking performance. We make our source code and datasets publicly available for medical entity linking research. | 翻訳日:2022-12-07 23:45:07 公開日:2021-08-22 |
# 季節パターンによる学習と最適化 Learning and Optimization with Seasonal Patterns ( http://arxiv.org/abs/2005.08088v4 ) ライセンス: Link先を確認 | Ningyuan Chen, Chun Wang, Longlin Wang | (参考訳) mab(multi-armed bandit)フレームワークで採用されている標準的な仮定は、平均報酬は時間とともに一定であるということである。
この仮定は、意思決定者がしばしば平均的な報酬が経時的に変化する環境に直面するため、ビジネスの世界では制限される可能性がある。
本稿では、平均報酬が時間とともに周期的に変化するK$アームを持つ非定常MABモデルについて考察する。
未知の周期は腕とスケールで異なり、水平線の長さは多項式的に$t$である。
本稿では,Fourier分析と信頼度に基づく学習手法を組み合わせた2段階のポリシーを提案し,その期間を学習し,後悔を最小限に抑える。
ステージ1では、ポリシーはすべての腕の期間を高い確率で正確に推定する。
第2段階において、この政策は、第1段階で推定される期間を用いて、腕の周期平均報酬を探索し、長期的に最適な腕を利用する。
我々の学習ポリシーは、後悔の上限である$\tilde{O}(\sqrt{T\sum_{k=1}^K T_k})$に対して、$T_k$はarm $k$の期間であることを示す。
さらに、任意のポリシーに対して、一般的な下界$\Omega(\sqrt{T\max_{k}\{T_k\}})$を確立する。
したがって、我々のポリシーは、$\sqrt{K}$にほぼ最適である。 A standard assumption adopted in the multi-armed bandit (MAB) framework is that the mean rewards are constant over time. This assumption can be restrictive in the business world as decision-makers often face an evolving environment where the mean rewards are time-varying. In this paper, we consider a non-stationary MAB model with $K$ arms whose mean rewards vary over time in a periodic manner. The unknown periods can be different across arms and scale with the length of the horizon $T$ polynomially. We propose a two-stage policy that combines the Fourier analysis with a confidence-bound-based learning procedure to learn the periods and minimize the regret. In stage one, the policy correctly estimates the periods of all arms with high probability. In stage two, the policy explores the periodic mean rewards of arms using the periods estimated in stage one and exploits the optimal arm in the long run. We show that our learning policy incurs a regret upper bound $\tilde{O}(\sqrt{T\sum_{k=1}^K T_k})$ where $T_k$ is the period of arm $k$. Moreover, we establish a general lower bound $\Omega(\sqrt{T\max_{k}\{ T_k\}})$ for any policy. Therefore, our policy is near-optimal up to a factor of $\sqrt{K}$. | 翻訳日:2022-12-02 12:58:08 公開日:2021-08-22 |
# Pick-Object-Attack: オブジェクト検出のためのタイプ特異的逆攻撃 Pick-Object-Attack: Type-Specific Adversarial Attack for Object Detection ( http://arxiv.org/abs/2006.03184v3 ) ライセンス: Link先を確認 | Omid Mohamad Nezami, Akshay Chaturvedi, Mark Dras, Utpal Garain | (参考訳) 最近の多くの研究では、深い神経モデルが敵のサンプルに弱いことが示されており、例えば知覚不能な摂動を持つ画像は画像分類器を騙すことができる。
本稿では,画像中に存在する複数の物体のまわりに有界箱を検知し,同時に分類し,画像の分類よりも困難な課題となる物体検出の逆例を生成するための,最初のタイプ固有のアプローチを提案する。
特に、画像内の特定のオブジェクトの予測ラベルを変更することで、広く使われている高速なr-cnnを攻撃することを目的としています。 以前の作業が1つの特定のオブジェクト(ストップサイン)をターゲットにしている場合、私たちは任意のオブジェクトに一般化します。
そこで我々はPick-Object-Attackという新しい手法を提案する。
Pick-Object-Attackは、ターゲットオブジェクトのバウンディングボックスのみに摂動を追加し、イメージ内の他の検出されたオブジェクトのラベルを保存する。
知覚性の観点からは、この方法によって引き起こされる摂動は非常に小さい。
さらに, 下流タスク, 画像キャプションの観点から, 物体検出に対する敵意攻撃の効果を初めて検証し, すべてのオブジェクト型を変更可能なメソッドがキャプションに非常に明らかな変化をもたらす場合, 制約された攻撃による変化は, あまり顕著ではないことを示した。 Many recent studies have shown that deep neural models are vulnerable to adversarial samples: images with imperceptible perturbations, for example, can fool image classifiers. In this paper, we present the first type-specific approach to generating adversarial examples for object detection, which entails detecting bounding boxes around multiple objects present in the image and classifying them at the same time, making it a harder task than against image classification. We specifically aim to attack the widely used Faster R-CNN by changing the predicted label for a particular object in an image: where prior work has targeted one specific object (a stop sign), we generalise to arbitrary objects, with the key challenge being the need to change the labels of all bounding boxes for all instances of that object type. To do so, we propose a novel method, named Pick-Object-Attack. Pick-Object-Attack successfully adds perturbations only to bounding boxes for the targeted object, preserving the labels of other detected objects in the image. In terms of perceptibility, the perturbations induced by the method are very small. Furthermore, for the first time, we examine the effect of adversarial attacks on object detection in terms of a downstream task, image captioning; we show that where a method that can modify all object types leads to very obvious changes in captions, the changes from our constrained attack are much less apparent. | 翻訳日:2022-11-25 03:08:23 公開日:2021-08-22 |
# 高精度な高次元漸近解析による異種音源からの情報伝達の解析 Analysis of Information Transfer from Heterogeneous Sources via Precise High-dimensional Asymptotics ( http://arxiv.org/abs/2010.11750v2 ) ライセンス: Link先を確認 | Fan Yang, Hongyang R. Zhang, Sen Wu, Weijie J. Su, Christopher R\'e | (参考訳) 我々は、トランスファー学習の問題を考える -- 1つのソースタスクから知識を取得し、異なるが関連するターゲットタスクに適用する。
転送学習における基本的な問題は、両方のタスクのデータの組み合わせが、目的のタスクのデータのみを使用することよりもうまく機能するかどうかである。
本稿では,この問題を2層線形ニューラルネットワーク推定器が両方のタスクのデータを組み合わせた線形回帰環境で正式に検討する。
この推定器は、両方のタスクに共有パラメータベクトルを使用し、異なるデータセット特性による正または負の情報伝達を示す。
本研究では, 試料サイズが一定比で比例的に増加すると, 上記推定値の予測リスクの正確な漸近限界を特徴付ける。
また、漸近極限は有限次元に対して十分正確であることを示す。
次に、ランダム効果モデルにおいて、正の(かつ負の)情報伝達を決定するための正確な条件を提供し、いくつかの理論的洞察をもたらす。
例えば、リスク曲線はモデルシフトの下で単調ではないため、ソースタスクからデータを徐々に追加する転送学習手順が動機となる。
上記の推定器と同様に,両タスクに共通機能空間を適用するニューラルネットワークを用いて,テキスト分類タスクにおけるこの手順の効率性を検証する。
この分析の主成分は、異なる集団共分散行列を持つ2つの独立したサンプル共分散行列の和を含む様々な機能の高次元漸近限界を見つけることである。 We consider the problem of transfer learning -- gaining knowledge from one source task and applying it to a different but related target task. A fundamental question in transfer learning is whether combining the data of both tasks works better than using only the target task's data (equivalently, whether a "positive information transfer" happens). We study this question formally in a linear regression setting where a two-layer linear neural network estimator combines both tasks' data. The estimator uses a shared parameter vector for both tasks and exhibits positive or negative information transfer by varying dataset characteristics. We characterize the precise asymptotic limit of the prediction risk of the above estimator when the sample sizes increase with the feature dimension proportionally at fixed ratios. We also show that the asymptotic limit is sufficiently accurate for finite dimensions. Then, we provide the exact condition to determine positive (and negative) information transfer in a random-effect model, leading to several theoretical insights. For example, the risk curve is non-monotone under model shift, thus motivating a transfer learning procedure that progressively adds data from the source task. We validate this procedure's efficiency on text classification tasks with a neural network that applies a shared feature space for both tasks, similar to the above estimator. The main ingredient of the analysis is finding the high-dimensional asymptotic limits of various functions involving the sum of two independent sample covariance matrices with different population covariance matrices, which may be of independent interest. | 翻訳日:2022-10-04 05:40:15 公開日:2021-08-22 |
# 自己教師付き事前学習による音声分離のためのラベル割り当ての安定化 Stabilizing Label Assignment for Speech Separation by Self-supervised Pre-training ( http://arxiv.org/abs/2010.15366v3 ) ライセンス: Link先を確認 | Sung-Feng Huang, Shun-Po Chuang, Da-Rong Liu, Yi-Chen Chen, Gene-Ping Yang, Hung-yi Lee | (参考訳) 音声の分離は,pit(permutation invariant training)アプローチが非常に成功したが,ピットトレーニング中に発生するラベル割り当ての切り替えは,収束速度の向上と実現可能な性能が望まれる場合には問題となっている。
本稿では,音声分離モデルの学習においてラベル割り当てを安定させるために,自己教師付き事前学習を行うことを提案する。
複数のタイプの自己教師的アプローチ、いくつかの典型的な音声分離モデル、2つの異なるデータセットに対する実験により、適切な自己教師的アプローチを選択すると、非常に優れた改善が達成可能であることが示された。 Speech separation has been well developed, with the very successful permutation invariant training (PIT) approach, although the frequent label assignment switching happening during PIT training remains to be a problem when better convergence speed and achievable performance are desired. In this paper, we propose to perform self-supervised pre-training to stabilize the label assignment in training the speech separation model. Experiments over several types of self-supervised approaches, several typical speech separation models and two different datasets showed that very good improvements are achievable if a proper self-supervised approach is chosen. | 翻訳日:2022-10-01 23:27:51 公開日:2021-08-22 |
# 局所帰属マップを用いた超解法ネットワークの解釈 Interpreting Super-Resolution Networks with Local Attribution Maps ( http://arxiv.org/abs/2011.11036v2 ) ライセンス: Link先を確認 | Jinjin Gu, Chao Dong | (参考訳) 画像超解像(SR)技術は、ディープネットワークの発明とそれに続くブレークスルーの恩恵を受け、急速に発展してきた。
しかし、深層学習と深層ニューラルネットワークは解釈が難しいことが認識されている。
SRネットワークはこの神秘的な性質を継承し、それを理解しようとする研究はほとんどない。
本稿では,SR結果に強く影響を与える入力画素の探索を目的とした,SRネットワークの属性解析を行う。
本稿では,2つの特徴を持つ積分勾配法を継承した局所帰属写像 (LAM) を提案する。
1つはぼやけた画像をベースライン入力として使い、もう1つはプログレッシブなぼやけ関数をパス関数として採用することである。
LAMに基づいて,(1)より広い範囲の入力画素を持つSRネットワークにより,より優れた性能が得られることを示す。
2)注目ネットワークと非ローカルネットワークは,より広い範囲の入力画素から特徴を抽出する。
3)実際の寄与範囲と比較すると,受容場は,ほとんどの深層ネットワークにおいて十分大きい。
(4)srネットワークでは,規則的なストライプやグリッドを持つテクスチャが注目される傾向が強く,複雑なセマンティクスの利用は困難である。
我々の研究は、SRネットワークの設計と低レベルの視覚深度モデル解釈のための新しい方向性を開く。 Image super-resolution (SR) techniques have been developing rapidly, benefiting from the invention of deep networks and its successive breakthroughs. However, it is acknowledged that deep learning and deep neural networks are difficult to interpret. SR networks inherit this mysterious nature and little works make attempt to understand them. In this paper, we perform attribution analysis of SR networks, which aims at finding the input pixels that strongly influence the SR results. We propose a novel attribution approach called local attribution map (LAM), which inherits the integral gradient method yet with two unique features. One is to use the blurred image as the baseline input, and the other is to adopt the progressive blurring function as the path function. Based on LAM, we show that: (1) SR networks with a wider range of involved input pixels could achieve better performance. (2) Attention networks and non-local networks extract features from a wider range of input pixels. (3) Comparing with the range that actually contributes, the receptive field is large enough for most deep networks. (4) For SR networks, textures with regular stripes or grids are more likely to be noticed, while complex semantics are difficult to utilize. Our work opens new directions for designing SR networks and interpreting low-level vision deep models. | 翻訳日:2022-09-22 12:11:22 公開日:2021-08-22 |
# (参考訳) 多言語音声認識のためのデュアルデコーダ適合器 A Dual-Decoder Conformer for Multilingual Speech Recognition ( http://arxiv.org/abs/2109.03277v1 ) ライセンス: CC BY 4.0 | Krishna D N | (参考訳) トランスフォーマーベースのモデルは最近、機械翻訳や音声認識などのシーケンシャル・トゥ・シーケンスアプリケーションで非常に人気がある。
本研究では,インド語用低リソース多言語音声認識のためのデュアルデコーダトランスフォーマモデルを提案する。
提案モデルは,コンバータ[1]エンコーダと2つの並列トランスフォーマーデコーダ,言語分類器から構成される。
音素認識タスクには音素デコーダ(phn-dec)、言語情報とともに音素シーケンスを予測するgraphemeデコーダ(grp-dec)を用いる。
我々は,マルチタスク学習フレームワークにおいて,音素認識と言語識別を補助的タスクとみなす。
我々は,共用CTC-Attention [2]トレーニングを用いて,音素認識,グラフ認識,言語識別タスクのネットワークを最適化する。
実験の結果,ベースラインアプローチよりもWERを大幅に削減できることがわかった。
また,デュアルデコーダ方式は単一デコーダ方式よりも大幅に改善されていることを示す。 Transformer-based models have recently become very popular for sequence-to-sequence applications such as machine translation and speech recognition. This work proposes a dual-decoder transformer model for low-resource multilingual speech recognition for Indian languages. Our proposed model consists of a Conformer [1] encoder, two parallel transformer decoders, and a language classifier. We use a phoneme decoder (PHN-DEC) for the phoneme recognition task and a grapheme decoder (GRP-DEC) to predict grapheme sequence along with language information. We consider phoneme recognition and language identification as auxiliary tasks in the multi-task learning framework. We jointly optimize the network for phoneme recognition, grapheme recognition, and language identification tasks with Joint CTC-Attention [2] training. Our experiments show that we can obtain a significant reduction in WER over the baseline approaches. We also show that our dual-decoder approach obtains significant improvement over the single decoder approach. | 翻訳日:2021-09-12 12:29:15 公開日:2021-08-22 |
# (参考訳) マルチタスクコンフォーメータを用いたインド低リソース言語のための多言語音声認識 Multilingual Speech Recognition for Low-Resource Indian Languages using Multi-Task conformer ( http://arxiv.org/abs/2109.03969v1 ) ライセンス: CC BY 4.0 | Krishna D N | (参考訳) 近年、トランスフォーマーは機械翻訳や音声認識などのシーケンシャル・ツー・シーケンスアプリケーションで非常に人気がある。
本研究では,インド語用低リソース多言語音声認識のためのマルチタスク学習に基づくトランスフォーマモデルを提案する。
提案モデルはコンバータ[1]エンコーダと2つの並列トランスデコーダからなる。
音素認識タスクには音素デコーダ(phn-dec)、音素シーケンスの予測にはgraphemeデコーダ(grp-dec)を用いる。
我々は,音素認識タスクをマルチタスク学習フレームワークの補助タスクとみなしている。
CTC-Attention [2] トレーニングを用いて,音素認識タスクと音素認識タスクの両方にネットワークを最適化する。
文列を予測する前に,条件付き復号法を用いて言語情報をモデルに注入する。
実験の結果,提案手法は従来の手法よりも大幅に改善できることがわかった[4]。
また、コンバータベースのデュアルデコーダアプローチは、トランスフォーマベースのデュアルデコーダアプローチとシングルデコーダアプローチの両方より優れていることを示す。
最後に,単言語 ASR モデルと提案した多言語 ASR モデルを比較した。 Transformers have recently become very popular for sequence-to-sequence applications such as machine translation and speech recognition. In this work, we propose a multi-task learning-based transformer model for low-resource multilingual speech recognition for Indian languages. Our proposed model consists of a conformer [1] encoder and two parallel transformer decoders. We use a phoneme decoder (PHN-DEC) for the phoneme recognition task and a grapheme decoder (GRP-DEC) to predict grapheme sequence. We consider the phoneme recognition task as an auxiliary task for our multi-task learning framework. We jointly optimize the network for both phoneme and grapheme recognition tasks using Joint CTC-Attention [2] training. We use a conditional decoding scheme to inject the language information into the model before predicting the grapheme sequence. Our experiments show that our proposed approach can obtain significant improvement over previous approaches [4]. We also show that our conformer-based dual-decoder approach outperforms both the transformer-based dual-decoder approach and single decoder approach. Finally, We compare monolingual ASR models with our proposed multilingual ASR approach. | 翻訳日:2021-09-12 12:16:53 公開日:2021-08-22 |
# (参考訳) モバイルデバイスを用いた小児感情認識分類器の訓練とプロファイリング Training and Profiling a Pediatric Emotion Recognition Classifier on Mobile Devices ( http://arxiv.org/abs/2108.11754v1 ) ライセンス: CC BY 4.0 | Agnik Banerjee, Peter Washington, Cezmi Mutlu, Aaron Kline, Dennis P. Wall | (参考訳) モバイルデバイスで感情の自動認識を実装することは、自閉症などの発達的行動条件を持つ子供を含む感情認識に苦しむ人々にとって、アクセス可能な診断および治療ツールとなる可能性がある。
より正確な感情分類器の構築には最近の進歩があるが、既存のモデルは計算コストがかかりすぎてモバイルデバイスにデプロイできない。
本研究では,エッジデバイス上での推論を目的とした各種機械学習モデルの最適化とプロファイルを行い,子どもの感情認識における過去の成果と一致した。
われわれの最良のモデルであるMobileNet-V2ネットワークはImageNetで事前トレーニングされ、65.11%の精度と64.19%のF1スコアを達成した。
このバランスの取れた精度は、26.62倍のパラメータを持つモデルを使用しており、完全に最適化されてもmoto g6では動作できなかったcafeの現在のartより1.79%低い。
この研究は、特殊な設計と最適化技術により、マシンラーニングモデルがモバイルデバイスへのデプロイに十分軽量になり、難しい画像分類タスクにおいて高い精度を達成することを実証する。 Implementing automated emotion recognition on mobile devices could provide an accessible diagnostic and therapeutic tool for those who struggle to recognize emotion, including children with developmental behavioral conditions such as autism. Although recent advances have been made in building more accurate emotion classifiers, existing models are too computationally expensive to be deployed on mobile devices. In this study, we optimized and profiled various machine learning models designed for inference on edge devices and were able to match previous state of the art results for emotion recognition on children. Our best model, a MobileNet-V2 network pre-trained on ImageNet, achieved 65.11% balanced accuracy and 64.19% F1-score on CAFE, while achieving a 45-millisecond inference latency on a Motorola Moto G6 phone. This balanced accuracy is only 1.79% less than the current state of the art for CAFE, which used a model that contains 26.62x more parameters and was unable to run on the Moto G6, even when fully optimized. This work validates that with specialized design and optimization techniques, machine learning models can become lightweight enough for deployment on mobile devices and still achieve high accuracies on difficult image classification tasks. | 翻訳日:2021-08-28 03:36:27 公開日:2021-08-22 |
# 疎自己注意層を用いたRNN-Transducerの外部オーディオへの一般化 Generalizing RNN-Transducer to Out-Domain Audio via Sparse Self-Attention Layers ( http://arxiv.org/abs/2108.10752v1 ) ライセンス: Link先を確認 | Juntae Kim, Jeehye Lee, Yoonhan Lee | (参考訳) recurrent neural network transducers(rnn-t)は、入力された音響フレームを文字列に変換する、有望なエンドツーエンド音声認識フレームワークである。
RNN-Tの最先端エンコーダネットワークであるConformerは、その畳み込み層と自己アテンション層を通じて、ローカル・グローバルコンテキスト情報を効果的にモデル化することができる。
コンフォーマーRNN-Tは, 単語誤り率(WER)によって測定されるが, 列車と試験データが同一領域から抽出される状況下では, 大半が検証されている。
Conformer RNN-Tのドメインミスマッチ問題は、製品レベルの音声認識システムにおいて重要な問題である。
本研究では,コンバータにおける完全連結型自己意図層が,特に長文外発話において高い削除誤差を引き起こしていることを確認した。
この問題に対処するため,コンフォーメータベースのエンコーダネットワークでは,局所的および一般化されたグローバル情報を活用できる疎自己着層を導入する。
さらに,長文発話に対応する予測ネットワークの一般化のための状態リセット手法を提案する。
提案手法を領域外試験に適用し, 完全連結層と局所自己保持層を用いたコンバータと比較して, 24.6 % と 6.5 % の相対的文字誤り率 (CER) を削減した。 Recurrent neural network transducers (RNN-T) are a promising end-to-end speech recognition framework that transduces input acoustic frames into a character sequence. The state-of-the-art encoder network for RNN-T is the Conformer, which can effectively model the local-global context information via its convolution and self-attention layers. Although Conformer RNN-T has shown outstanding performance (measured by word error rate (WER) in general), most studies have been verified in the setting where the train and test data are drawn from the same domain. The domain mismatch problem for Conformer RNN-T has not been intensively investigated yet, which is an important issue for the product-level speech recognition system. In this study, we identified that fully connected self-attention layers in the Conformer caused high deletion errors, specifically in the long-form out-domain utterances. To address this problem, we introduce sparse self-attention layers for Conformer-based encoder networks, which can exploit local and generalized global information by pruning most of the in-domain fitted global connections. Further, we propose a state reset method for the generalization of the prediction network to cope with long-form utterances. Applying proposed methods to an out-domain test, we obtained 24.6\% and 6.5\% relative character error rate (CER) reduction compared to the fully connected and local self-attention layer-based Conformers, respectively. | 翻訳日:2021-08-25 14:10:22 公開日:2021-08-22 |
# (参考訳) バッグ脅威認識のためのテンソルプール駆動型インスタンス分割フレームワーク Tensor Pooling Driven Instance Segmentation Framework for Baggage Threat Recognition ( http://arxiv.org/abs/2108.09603v1 ) ライセンス: CC BY 4.0 | Taimur Hassan and Samet Akcay and Mohammed Bennamoun and Salman Khan and Naoufel Werghi | (参考訳) X線画像からコントラバンドアイテムをスクリーニングするために設計された自動システムは、いまだに散らかり、隠蔽、極度の閉塞によって困難に直面している。
本稿では,手荷物X線スキャンにおける乱雑なコントラバンドデータを効果的に識別する,新しいマルチスケール輪郭インスタンスセグメンテーションフレームワークを用いて,この問題に対処する。
オブジェクトを囲む複数のボックスを生成するために、領域ベースまたはキーポイントベースの技術を用いる標準モデルとは異なり、輪郭によって定義される領域の階層構造に従って提案を導出する。
提案フレームワークはGDXray, SIXray, OPIXrayという3つの公開データセットで厳格に検証され, 平均精度スコア0.9779, 0.9614, 0.8396をそれぞれ達成して最先端の手法より優れている。
さらに、私たちの知る限りでは、マルチスケール情報を利用して色とグレースケールのセキュリティX線画像から乱れや隠蔽されたコントラバンドデータを認識する最初の輪郭インスタンスセグメンテーションフレームワークである。 Automated systems designed for screening contraband items from the X-ray imagery are still facing difficulties with high clutter, concealment, and extreme occlusion. In this paper, we addressed this challenge using a novel multi-scale contour instance segmentation framework that effectively identifies the cluttered contraband data within the baggage X-ray scans. Unlike standard models that employ region-based or keypoint-based techniques to generate multiple boxes around objects, we propose to derive proposals according to the hierarchy of the regions defined by the contours. The proposed framework is rigorously validated on three public datasets, dubbed GDXray, SIXray, and OPIXray, where it outperforms the state-of-the-art methods by achieving the mean average precision score of 0.9779, 0.9614, and 0.8396, respectively. Furthermore, to the best of our knowledge, this is the first contour instance segmentation framework that leverages multi-scale information to recognize cluttered and concealed contraband data from the colored and grayscale security X-ray imagery. | 翻訳日:2021-08-25 05:31:52 公開日:2021-08-22 |
# (参考訳) 直交潜在空間投影による地質構造の自己監督 Self-Supervised Delineation of Geological Structures using Orthogonal Latent Space Projection ( http://arxiv.org/abs/2108.09605v1 ) ライセンス: CC BY 4.0 | Oluwaseun Joseph Aribido, Ghassan AlRegib, Yazeed Alaudah | (参考訳) 我々は,経験豊富な地震インタプリタから手動によるラベル付けを行うことなく,地震量の自動解析を支援する2つの機械学習フレームワークを開発した。
最初のフレームワークは教師なしの階層的クラスタリングモデルで、地震像をボリュームから、アルゴリズムによって決定されるある数のクラスタに分割する。
クラスタリングフレームワークは、密度と階層的なテクニックを組み合わせて、クラスタのサイズと均質性を決定する。
第2のフレームワークは、地震画像に対する地質学的関心の地域をラベル付けするための自己教師型ディープラーニングフレームワークで構成されている。
エンコーダ・デコーダアーキテクチャの潜在空間を2つの直交部分空間に射影し、そこから地震画像に対する関心領域を記述することを学ぶ。
両フレームワークの適用例を示すために,地震体積を連続した複数のクラスターにまとめ,地平線,断層,塩ドーム,カオス構造という異なる地震パターンに基づいて4つのクラスターを選定した。
選択されたクラスタからのイメージは、エンコーダ-デコーダネットワークのトレーニングに使用される。
エンコーダ・デコーダネットワークの出力は、振幅反射イベントが興味深い地質構造に属する可能性の確率マップである。
構造は確率写像を用いて記述される。
区切りされた画像はさらに、セグメンテーションモデルを訓練して、結果を完全な垂直セクションに拡張するために使われる。
その結果,地震の体積を,それに対応する構造成分に分解できることがわかった。
最後に、私たちのディープラーニングフレームワークを属性抽出器としてモデル化できることを示し、文献における様々な属性と比較し、それらと競合する性能を示した。 We developed two machine learning frameworks that could assist in automated litho-stratigraphic interpretation of seismic volumes without any manual hand labeling from an experienced seismic interpreter. The first framework is an unsupervised hierarchical clustering model to divide seismic images from a volume into certain number of clusters determined by the algorithm. The clustering framework uses a combination of density and hierarchical techniques to determine the size and homogeneity of the clusters. The second framework consists of a self-supervised deep learning framework to label regions of geological interest in seismic images. It projects the latent-space of an encoder-decoder architecture unto two orthogonal subspaces, from which it learns to delineate regions of interest in the seismic images. To demonstrate an application of both frameworks, a seismic volume was clustered into various contiguous clusters, from which four clusters were selected based on distinct seismic patterns: horizons, faults, salt domes and chaotic structures. Images from the selected clusters are used to train the encoder-decoder network. The output of the encoder-decoder network is a probability map of the possibility an amplitude reflection event belongs to an interesting geological structure. The structures are delineated using the probability map. The delineated images are further used to post-train a segmentation model to extend our results to full-vertical sections. The results on vertical sections show that we can factorize a seismic volume into its corresponding structural components. Lastly, we showed that our deep learning framework could be modeled as an attribute extractor and we compared our attribute result with various existing attributes in literature and demonstrate competitive performance with them. | 翻訳日:2021-08-25 05:05:25 公開日:2021-08-22 |
# (参考訳) パーソナライズされた連合学習:組み合わせアプローチ Personalised Federated Learning: A Combinational Approach ( http://arxiv.org/abs/2108.09618v1 ) ライセンス: CC BY 4.0 | Sone Kyaw Pye and Han Yu | (参考訳) Federated Learning(FL)は、複数のクライアントが共同で共有モデルをトレーニングする分散機械学習アプローチである。
このようなシステムには、複数のクライアントからのより多くのトレーニングデータの利点があるが、データは識別不能で独立に分散される(非i.d.)。
FLでは、差分プライバシ(DP)やロバストアグリゲーション(RA)などのプライバシーと整合性保護機能が一般的に使用されている。
本研究は,一般的なディープラーニングタスクにおいて,FLモデルの性能がクライアントや状況によって異なることを示し,非i.dにより,FLモデルが局所モデルよりも悪い結果を示す。
データだ
次に,DPとRAの併用により性能がさらに低下することを示す。
次に, flにおける共通パーソナライズアプローチの異なる組み合わせによる性能への影響について, 微調整, ミックス・オブ・エキスパート・アンサンブル, マルチタスク学習, 知識蒸留などのアブレーション研究を行った。
パーソナライズアプローチの特定の組み合わせは、特定のシナリオにおいてより影響を受け、他の組み合わせは、常にパフォーマンスを改善し、組み合わせアプローチは個々のシナリオよりも優れていることが観察された。
ほとんどのクライアントは、パーソナライズされたFLと、非i.dによるパフォーマンス劣化から回復した。
data, DP, RA。 Federated learning (FL) is a distributed machine learning approach involving multiple clients collaboratively training a shared model. Such a system has the advantage of more training data from multiple clients, but data can be non-identically and independently distributed (non-i.i.d.). Privacy and integrity preserving features such as differential privacy (DP) and robust aggregation (RA) are commonly used in FL. In this work, we show that on common deep learning tasks, the performance of FL models differs amongst clients and situations, and FL models can sometimes perform worse than local models due to non-i.i.d. data. Secondly, we show that incorporating DP and RA degrades performance further. Then, we conduct an ablation study on the performance impact of different combinations of common personalization approaches for FL, such as finetuning, mixture-of-experts ensemble, multi-task learning, and knowledge distillation. It is observed that certain combinations of personalization approaches are more impactful in certain scenarios while others always improve performance, and combination approaches are better than individual ones. Most clients obtained better performance with combined personalized FL and recover from performance degradation caused by non-i.i.d. data, DP, and RA. | 翻訳日:2021-08-25 04:43:06 公開日:2021-08-22 |
# (参考訳) コード学習タスクの評価手法 Evaluation Methodologies for Code Learning Tasks ( http://arxiv.org/abs/2108.09619v1 ) ライセンス: CC BY 4.0 | Pengyu Nie, Jiyang Zhang, Junyi Jessy Li, Raymond J. Mooney, Milos Gligoric | (参考訳) コード学習タスク(例えばコメント生成やメソッド命名など)のための機械学習(ML)モデルの開発に対する関心が高まっている。
MLモデルの有効性は大幅に向上したが、評価手法、すなわち、人々がデータセットをトレーニング、検証、テストセットに分割する方法は十分に設計されなかった。
具体的には、前述のトピックに関する以前の研究では、評価中のコードとコメントのタイムスタンプが考慮されていた(例えば、テストセットの例は2010年、トレーニングセットの例は2020年)。
これは、MLモデルの意図されたユースケースと矛盾する評価につながる可能性がある。
本稿では,新しい時間割評価手法を定式化し,文献で一般的に用いられる2つの手法であるmixed-projectとcross-projectについて述べる。
タイムセグメンテーションの方法論が最も現実的だと主張する。
また,MLモデルのさまざまなユースケースについて記述し,各ユースケースの評価に方法論を使用するためのガイドラインを提供する。
提案手法が与える影響を評価するために,タイムスタンプを用いたコード-コミットペアのデータセットを収集し,最近のコード学習mlモデルの学習と評価を行った。
その結果,異なる手法が相反する結果をもたらす可能性が示唆された。
タイムセグメンテーション評価手法を採用するようコミュニティに呼びかける。 There has been a growing interest in developing machine learning (ML) models for code learning tasks, e.g., comment generation and method naming. Despite substantial increase in the effectiveness of ML models, the evaluation methodologies, i.e., the way people split datasets into training, validation, and testing sets, were not well designed. Specifically, no prior work on the aforementioned topics considered the timestamps of code and comments during evaluation (e.g., examples in the testing set might be from 2010 and examples from the training set might be from 2020). This may lead to evaluations that are inconsistent with the intended use cases of the ML models. In this paper, we formalize a novel time-segmented evaluation methodology, as well as the two methodologies commonly used in the literature: mixed-project and cross-project. We argue that time-segmented methodology is the most realistic. We also describe various use cases of ML models and provide a guideline for using methodologies to evaluate each use case. To assess the impact of methodologies, we collect a dataset of code-comment pairs with timestamps to train and evaluate several recent code learning ML models for the comment generation and method naming tasks. Our results show that different methodologies can lead to conflicting and inconsistent results. We invite the community to adopt the time-segmented evaluation methodology. | 翻訳日:2021-08-25 04:31:14 公開日:2021-08-22 |
# (参考訳) ソースコード検索における自動クエリ変換の体系的文献レビュー A Systematic Literature Review of Automated Query Reformulations in Source Code Search ( http://arxiv.org/abs/2108.09646v1 ) ライセンス: CC BY 4.0 | Mohammad Masudur Rahman and Chanchal K. Roy | (参考訳) ソフトウェア開発者はしばしば、ソフトウェアの信頼性を確保するために重要なバグを修正する。
また、市場で競争力を維持するために、定期的にソフトウェアに新機能を追加する必要があるかもしれない。
これらのバグと機能は変更要求(すなわち、ソフトウェアユーザーが書いた技術文書)として報告される。
開発者はこれらのドキュメントを参照して、ソフトウェアコードの必要な変更を実装する。
変更実装の一部として、変更要求からいくつかの重要なキーワードをアドホッククエリとして選択することが多い。
その後、コード検索エンジン(例えばLucene)でクエリを実行し、変更が必要なソフトウェアコード内の正確な位置を見つけようとする。
残念ながら、経験豊富な開発者でさえ、適切なクエリの選択に失敗することが多い。
その結果、開発者はコード内の適切な場所を検出するのに苦労し、多くの試行錯誤でほとんどの時間を費やすことになります。
アドホッククエリを自動的に再構成することで、クエリの構築を支援する研究が数多く行われている。
本体系的文献レビューでは,2,970の候補研究から70の問合せ改革に関する基礎研究を注意深く選択し,接地理論を用いて詳細な質的分析を行い,6つの重要な研究課題に回答する。
我々の調査はいくつかの大きな発見を報告した。
まず、現在までに8つの主要な方法論(項重み付け、クエリ項共起分析、シソーラスルックアップ)がクエリの再構成に採用されている。
第2に、既存の研究は、いくつかの大きな制限(一般化可能性の欠如、語彙ミスマッチ問題、弱い評価、開発者の余分な負担など)に苦しめられている。
最後に,検索クエリのリフォームにおけるオープンな問題をいくつか検討し,今後の研究機会を複数提案する。 Software developers often fix critical bugs to ensure the reliability of their software. They might also need to add new features to their software at a regular interval to stay competitive in the market. These bugs and features are reported as change requests (i.e., technical documents written by software users). Developers consult these documents to implement the required changes in the software code. As a part of change implementation, they often choose a few important keywords from a change request as an ad hoc query. Then they execute the query with a code search engine (e.g., Lucene) and attempt to find out the exact locations within the software code that need to be changed. Unfortunately, even experienced developers often fail to choose the right queries. As a consequence, the developers often experience difficulties in detecting the appropriate locations within the code and spend the majority of their time in numerous trials and errors. There have been many studies that attempt to support developers in constructing queries by automatically reformulating their ad hoc queries. In this systematic literature review, we carefully select 70 primary studies on query reformulations from 2,970 candidate studies, perform an in-depth qualitative analysis using the Grounded Theory approach, and then answer six important research questions. Our investigation has reported several major findings. First, to date, eight major methodologies (e.g., term weighting, query-term co-occurrence analysis, thesaurus lookup) have been adopted in query reformulation. Second, the existing studies suffer from several major limitations (e.g., lack of generalizability, vocabulary mismatch problem, weak evaluation, the extra burden on the developers) that might prevent their wide adoption. Finally, we discuss several open issues in search query reformulations and suggest multiple future research opportunities. | 翻訳日:2021-08-25 04:07:27 公開日:2021-08-22 |
# (参考訳) 側面:構造対応インスタンス深度推定を用いたセンタベースステレオ3d検出器 SIDE: Center-based Stereo 3D Detector with Structure-aware Instance Depth Estimation ( http://arxiv.org/abs/2108.09663v1 ) ライセンス: CC BY 4.0 | Xidong Peng, Xinge Zhu, Tai Wang, and Yuexin Ma | (参考訳) 3D検出は環境認識において不可欠である。
一般的に使用されるLiDARセンサーのコストが高いため、ステレオビジョンに基づく3D検出は経済的に効果的だが、近年は注目を集めている。
2次元画像に基づくこれらのアプローチでは、正確な深度情報が3次元検出の鍵となり、既存の手法のほとんどは、深度推定の予備段階に頼っている。
それらは主にグローバルな深度に焦点を合わせ、この特定のタスク、すなわち空間と局所性における深度情報の性質を無視する。
そこで本研究では, ステレオ画像を用いた立体画像によるアンカーフリー3D検出手法を提案し, 各オブジェクトのRoIsからコストボリュームを構成することで, インスタンスレベルの深度情報を探索する。
局所的なコスト量の情報のスパース性から,さらに,マッチングの重み付けと構造認識の注意を導入し,奥行き情報の集中化を図る。
KITTIデータセットで行った実験から,本手法は深度マップの監督のない既存手法と比較して最先端の性能を実現することが示された。 3D detection plays an indispensable role in environment perception. Due to the high cost of commonly used LiDAR sensor, stereo vision based 3D detection, as an economical yet effective setting, attracts more attention recently. For these approaches based on 2D images, accurate depth information is the key to achieve 3D detection, and most existing methods resort to a preliminary stage for depth estimation. They mainly focus on the global depth and neglect the property of depth information in this specific task, namely, sparsity and locality, where exactly accurate depth is only needed for these 3D bounding boxes. Motivated by this finding, we propose a stereo-image based anchor-free 3D detection method, called structure-aware stereo 3D detector (termed as SIDE), where we explore the instance-level depth information via constructing the cost volume from RoIs of each object. Due to the information sparsity of local cost volume, we further introduce match reweighting and structure-aware attention, to make the depth information more concentrated. Experiments conducted on the KITTI dataset show that our method achieves the state-of-the-art performance compared to existing methods without depth map supervision. | 翻訳日:2021-08-25 04:06:18 公開日:2021-08-22 |
# (参考訳) MobileNet V1を用いた複数画像スプリシングの検出と位置推定 Detection and Localization of Multiple Image Splicing Using MobileNet V1 ( http://arxiv.org/abs/2108.09674v1 ) ライセンス: CC BY 4.0 | Kalyani Kadam, Dr. Swati Ahirrao, Dr. Ketan Kotecha, Sayan Sahu | (参考訳) 現代社会では、デジタル画像は情報とコミュニケーションの媒体の顕著な源となっている。
しかしそれらは、自由に利用できる画像編集ソフトウェアを使って簡単に変更できる。
2つ以上の画像を組み合わせて、ソーシャルメディアプラットフォーム間で情報を伝達し、社会の人々に影響を与える新しい画像を生成する。
この情報は、ポジティブな結果とネガティブな結果の両方をもたらす可能性がある。
したがって、画像中の複数の画像スプライシングの偽造を検知し、発見する技術を開発する必要がある。
本研究では,Mask R-CNNを用いた複数画像スプライシングの偽造検出手法を提案する。
また、複数のスプライシング画像の鍛造領域のパーセンテージスコアを算出する。
提案手法とResNetの変種の比較分析を行った。
提案したモデルはMISD(Multiple Image Splicing Dataset)を用いてトレーニング,テストを行い,提案モデルがResNetモデルの変種(ResNet 51,101,151)より優れていることを確認した。 In modern society, digital images have become a prominent source of information and medium of communication. They can, however, be simply altered using freely available image editing software. Two or more images are combined to generate a new image that can transmit information across social media platforms to influence the people in the society. This information may have both positive and negative consequences. Hence there is a need to develop a technique that will detect and locates a multiple image splicing forgery in an image. This research work proposes multiple image splicing forgery detection using Mask R-CNN, with a backbone as a MobileNet V1. It also calculates the percentage score of a forged region of multiple spliced images. The comparative analysis of the proposed work with the variants of ResNet is performed. The proposed model is trained and tested using our MISD (Multiple Image Splicing Dataset), and it is observed that the proposed model outperforms the variants of ResNet models (ResNet 51,101 and 151). | 翻訳日:2021-08-25 03:51:51 公開日:2021-08-22 |
# (参考訳) 回帰のための効率的なガウス神経プロセス Efficient Gaussian Neural Processes for Regression ( http://arxiv.org/abs/2108.09676v1 ) ライセンス: CC BY 4.0 | Stratis Markou, James Requeima, Wessel Bruinsma, Richard Turner | (参考訳) Conditional Neural Processs (CNP; Garnelo et al., 2018) は、よく校正された予測を生成し、テスト時に高速な推論を可能にし、単純な最大精度の手順でトレーニングできる、魅力的なメタラーニングモデルのファミリーである。
CNPの制限は、出力の依存性をモデル化できないことである。
これにより予測性能が著しく低下し、コヒーレント関数サンプルの描画が不可能になるため、下流アプリケーションや意思決定におけるCNPの適用性が制限される。
NeuralProcesses (NPs; Garnelo et al., 2018)は、潜伏変数を使用してこの問題を緩和しようと試み、これらに依存して出力依存をモデル化するが、近似推論から生じる困難をもたらす。
One recent alternative (Bruinsma et al.,2021), which we refer to as the FullConvGNP, models dependencies in the predictions while still being trainable via exact maximum-likelihood.Unfortunately, the FullConvGNP relies on expensive 2D-dimensional convolutions, which limit its applicability to only one-dimensional data.In this work, we present an alternative way to model output dependencies which also lends it-self maximum likelihood training but, unlike the FullConvGNP, can be scaled to two- and three-dimensional data.
提案モデルは合成実験において優れた性能を示す Conditional Neural Processes (CNP; Garnelo et al., 2018) are an attractive family of meta-learning models which produce well-calibrated predictions, enable fast inference at test time, and are trainable via a simple maximum likelihood procedure. A limitation of CNPs is their inability to model dependencies in the outputs. This significantly hurts predictive performance and renders it impossible to draw coherent function samples, which limits the applicability of CNPs in down-stream applications and decision making. NeuralProcesses (NPs; Garnelo et al., 2018) attempt to alleviate this issue by using latent variables, rely-ing on these to model output dependencies, but introduces difficulties stemming from approximate inference. One recent alternative (Bruinsma et al.,2021), which we refer to as the FullConvGNP, models dependencies in the predictions while still being trainable via exact maximum-likelihood.Unfortunately, the FullConvGNP relies on expensive 2D-dimensional convolutions, which limit its applicability to only one-dimensional data.In this work, we present an alternative way to model output dependencies which also lends it-self maximum likelihood training but, unlike the FullConvGNP, can be scaled to two- and three-dimensional data. The proposed models exhibit good performance in synthetic experiments | 翻訳日:2021-08-25 03:37:05 公開日:2021-08-22 |
# (参考訳) Gustafson-Kesselクラスタリングに基づく高木-菅野ファジィモデルによる降雨流出予測 Rainfall-runoff prediction using a Gustafson-Kessel clustering based Takagi-Sugeno Fuzzy model ( http://arxiv.org/abs/2108.09684v1 ) ライセンス: CC BY 4.0 | Subhrasankha Dey, Tanmoy Dam | (参考訳) 降雨流出モデルは、物理的アプローチまたはシステムベースのアプローチを用いて表面流出を予測する。
高木・スジェノ(TS)ファジィモデル(英語版)はシステムベースのアプローチであり、いくつかの利点と既存のモデルに対する予測精度の改善により、近年の流体学者にとって一般的なモデリング選択である。
本稿では,Gustafson-Kessel(GK)クラスタリングに基づくTS Fuzzyモデルを用いて,新しい降雨流出モデルを提案する。
本稿では, GKアルゴリズムと, (i) Fuzzy C-Means (FCM) と (ii) Subtractive Clustering (SC) の2つのクラスタリングアルゴリズムを比較した。
提案するtsファジィモデルは, (i) 流域における降雨量, (ii) 流域出口での降雨量を用いて, 表面流出量を予測する。
提案モデルはインド工科大学kharagpur校のキャンパスに設置されたセンサから収集された降雨流出データを用いて検証される。
提案したモデルの最適ルール数は,検証指標によって異なる。
クラスタリングアルゴリズム毎に,RootMean Square Error (RMSE), Coefficient of efficiency (CE), Volumetric Error (VE), correlation Coefficient of determined(R)の4つの性能基準を比較した。 A rainfall-runoff model predicts surface runoff either using a physically-based approach or using a systems-based approach. Takagi-Sugeno (TS) Fuzzy models are systems-based approaches and a popular modeling choice for hydrologists in recent decades due to several advantages and improved accuracy in prediction over other existing models. In this paper, we propose a new rainfall-runoff model developed using Gustafson-Kessel (GK) clustering-based TS Fuzzy model. We present comparative performance measures of GK algorithms with two other clustering algorithms: (i) Fuzzy C-Means (FCM), and (ii)Subtractive Clustering (SC). Our proposed TS Fuzzy model predicts surface runoff using: (i) observed rainfall in a drainage basin and (ii) previously observed precipitation flow in the basin outlet. The proposed model is validated using the rainfall-runoff data collected from the sensors installed on the campus of the Indian Institute of Technology, Kharagpur. The optimal number of rules of the proposed model is obtained by different validation indices. A comparative study of four performance criteria: RootMean Square Error (RMSE), Coefficient of Efficiency (CE), Volumetric Error (VE), and Correlation Coefficient of Determination(R) have been quantitatively demonstrated for each clustering algorithm. | 翻訳日:2021-08-25 03:25:57 公開日:2021-08-22 |
# (参考訳) 自己センブルノイズフィルタリングによる遠隔教師付き関係抽出の改善 Improving Distantly Supervised Relation Extraction with Self-Ensemble Noise Filtering ( http://arxiv.org/abs/2108.09689v1 ) ライセンス: CC0 1.0 | Tapas Nayak and Navonil Majumder and Soujanya Poria | (参考訳) 遠隔監視モデルでは,人間のアノテーションを使わずに遠隔監視法を用いて大量の訓練データを得ることができるため,関係抽出に非常に人気がある。
遠隔の監督では、文がタプルの2つの実体を含む場合、文はタプルの源と見なされる。
しかし、この条件は寛容であり、文中に関連性固有の情報が存在することを保証していない。
そのため、遠方の教師付きトレーニングデータには、モデルの性能に悪影響を及ぼす多くのノイズが含まれている。
本稿では,学習過程におけるノイズを除去する自己アンサンブルフィルタリング機構を提案する。
提案フレームワークは,遠方の監視によって得られたnew york timesデータセット上で評価する。
複数の最先端神経関係抽出モデルを用いた実験により,提案するフィルタリング機構がモデルのロバスト性を改善し,f1スコアを増加させることを示した。 Distantly supervised models are very popular for relation extraction since we can obtain a large amount of training data using the distant supervision method without human annotation. In distant supervision, a sentence is considered as a source of a tuple if the sentence contains both entities of the tuple. However, this condition is too permissive and does not guarantee the presence of relevant relation-specific information in the sentence. As such, distantly supervised training data contains much noise which adversely affects the performance of the models. In this paper, we propose a self-ensemble filtering mechanism to filter out the noisy samples during the training process. We evaluate our proposed framework on the New York Times dataset which is obtained via distant supervision. Our experiments with multiple state-of-the-art neural relation extraction models show that our proposed filtering mechanism improves the robustness of the models and increases their F1 scores. | 翻訳日:2021-08-25 03:09:35 公開日:2021-08-22 |
# (参考訳) カリキュラム学習のための空間トランスフォーマーネットワーク Spatial Transformer Networks for Curriculum Learning ( http://arxiv.org/abs/2108.09696v1 ) ライセンス: CC BY 4.0 | Fatemeh Azimi, Jean-Francois Jacques Nicolas Nies, Sebastian Palacio, Federico Raue, J\"orn Hees, Andreas Dengel | (参考訳) カリキュラム学習はバイオインスパイアされたトレーニング技術であり、機械学習に広く採用され、収束率や得られた精度に関するニューラルネットワークの最適化とトレーニングを改善する。
カリキュラム学習の主なコンセプトは、より単純なタスクでトレーニングを開始し、徐々に難易度を高めることである。
したがって、自然な質問は、これらの単純なタスクをどうやって決定または生成するかである。
本研究では,Spatial Transformer Networks (STN) からインスピレーションを得て,簡単なカリキュラムを作成する。
STNは入力画像から乱れを取り除き、画像分類タスクの精度を高めることができることが証明されているので、STNによって処理された画像は容易なタスクと見なされ、カリキュラム学習の利益に活用できるという仮説を立てる。
そこで本研究では,STNが生成したデータを用いて,学習カリキュラム形成のための複数の戦略について検討する。
乱雑なMNISTデータセットとFashion-MNISTデータセットについて様々な実験を行い、前者はベースラインと比較して分類精度が3.8$pp向上した。 Curriculum learning is a bio-inspired training technique that is widely adopted to machine learning for improved optimization and better training of neural networks regarding the convergence rate or obtained accuracy. The main concept in curriculum learning is to start the training with simpler tasks and gradually increase the level of difficulty. Therefore, a natural question is how to determine or generate these simpler tasks. In this work, we take inspiration from Spatial Transformer Networks (STNs) in order to form an easy-to-hard curriculum. As STNs have been proven to be capable of removing the clutter from the input images and obtaining higher accuracy in image classification tasks, we hypothesize that images processed by STNs can be seen as easier tasks and utilized in the interest of curriculum learning. To this end, we study multiple strategies developed for shaping the training curriculum, using the data generated by STNs. We perform various experiments on cluttered MNIST and Fashion-MNIST datasets, where on the former, we obtain an improvement of $3.8$pp in classification accuracy compared to the baseline. | 翻訳日:2021-08-25 02:59:18 公開日:2021-08-22 |
# (参考訳) セマンティクスセグメンテーションにおける自己制御 Self-Regulation for Semantic Segmentation ( http://arxiv.org/abs/2108.09702v1 ) ライセンス: CC BY 4.0 | Zhang Dong, Zhang Hanwang, Tang Jinhui, Hua Xiansheng, Sun Qianru | (参考訳) 本稿では,セマンティックセグメンテーション(SS)における2つの主要な障害事例の理由を探る。1)小さなオブジェクトや小さなオブジェクトの部分の欠如,2)大きなオブジェクトの小さな部分を間違ったクラスと誤ラベルすること。
興味深い発見として、Failure-1は詳細な機能の不足によるものであり、Failure-2は視覚的コンテキストの不足によるものです。
モデルがよりよいトレードオフを学習するために、SSニューラルネットワークのトレーニングにいくつかの自己規制(SR)損失を導入する。
によって、損失は、追加のデータや監視を使わずに、それ自体がモデルから来ていることを意味する。
sr損失を適用することで、深い層の特徴はより詳細を保つために浅い層によって制御され、一方、浅い層分類ロジットは深い層によって制御され、より意味を捉える。
我々は,ssタスクとssタスクの両方について広範な実験を行い,本手法がベースラインを一貫して超越していることを示す。
また、SR損失はSPGNetやOCRNetなど、最先端のSSモデルで容易に実装でき、トレーニング中に計算オーバーヘッドがほとんどなく、テストに役立ちません。 In this paper, we seek reasons for the two major failure cases in Semantic Segmentation (SS): 1) missing small objects or minor object parts, and 2) mislabeling minor parts of large objects as wrong classes. We have an interesting finding that Failure-1 is due to the underuse of detailed features and Failure-2 is due to the underuse of visual contexts. To help the model learn a better trade-off, we introduce several Self-Regulation (SR) losses for training SS neural networks. By "self", we mean that the losses are from the model per se without using any additional data or supervision. By applying the SR losses, the deep layer features are regulated by the shallow ones to preserve more details; meanwhile, shallow layer classification logits are regulated by the deep ones to capture more semantics. We conduct extensive experiments on both weakly and fully supervised SS tasks, and the results show that our approach consistently surpasses the baselines. We also validate that SR losses are easy to implement in various state-of-the-art SS models, e.g., SPGNet and OCRNet, incurring little computational overhead during training and none for testing. | 翻訳日:2021-08-25 02:49:17 公開日:2021-08-22 |
# (参考訳) FEDI: Earth Mover の Distance アルゴリズムとディープ残像ネットワークを組み合わせることで糖尿病網膜症を同定するFew-shot Learning FEDI: Few-shot learning based on Earth Mover's Distance algorithm combined with deep residual network to identify diabetic retinopathy ( http://arxiv.org/abs/2108.09711v1 ) ライセンス: CC BY 4.0 | Liangrui Pan, Boya Ji, Peng Xi, Xiaoqi Wang, Mitchai Chongcheawchamnan, Shaoliang Peng | (参考訳) 糖尿病患者の視覚障害の主な原因は糖尿病網膜症である。
しかし, 眼底の診断により, drは容易に失明の発生を遅らせることができる。
現実の観点からは、臨床で大量の糖尿病網膜データを収集することは困難である。
本稿では,Earth Mover の Distance アルゴリズムをベースとした深層学習モデルを提案する。我々は,1000 サンプルデータの39 のカテゴリをベースとした小層学習のためのトレーニングと検証の分類タスクを構築し,深層学習ネットワークを訓練し,経験最大化事前学習モデルを得る。
事前学習したモデルの重みに基づいて、地球移動者の距離アルゴリズムは画像間の距離を計算し、画像間の類似性を取得し、モデルのパラメータを変更してトレーニングモデルの精度を向上させる。
最後に, 糖尿病性網膜テストセットの3way10shotタスクにおいて, モデルをさらに最適化するための小サンプル分類タスクを実験的に構築し, 93.5667%の精度を示した。
実験コードと結果については、https://github.com/panliangrui/few-shot-learning-fundsを参照してください。 Diabetic retinopathy(DR) is the main cause of blindness in diabetic patients. However, DR can easily delay the occurrence of blindness through the diagnosis of the fundus. In view of the reality, it is difficult to collect a large amount of diabetic retina data in clinical practice. This paper proposes a few-shot learning model of a deep residual network based on Earth Mover's Distance algorithm to assist in diagnosing DR. We build training and validation classification tasks for few-shot learning based on 39 categories of 1000 sample data, train deep residual networks, and obtain experience maximization pre-training models. Based on the weights of the pre-trained model, the Earth Mover's Distance algorithm calculates the distance between the images, obtains the similarity between the images, and changes the model's parameters to improve the accuracy of the training model. Finally, the experimental construction of the small sample classification task of the test set to optimize the model further, and finally, an accuracy of 93.5667% on the 3way10shot task of the diabetic retina test set. For the experimental code and results, please refer to: https://github.com/panliangrui/few-shot-learning-funds. | 翻訳日:2021-08-25 02:28:59 公開日:2021-08-22 |
# (参考訳) 外部知識強化テキスト視覚質問応答 External Knowledge Augmented Text Visual Question Answering ( http://arxiv.org/abs/2108.09717v1 ) ライセンス: CC BY 4.0 | Arka Ujjal Dey, Ernest Valveny, Gaurav Harit | (参考訳) text-vqaのオープンエンドの質問応答タスクは、答えを生成するために、画像のローカル(以前は見つからなかった)のシーンテキストコンテンツの読み出しと推論を必要とする。
本研究では,これらのシーンテキストの理解を高めるために,外部知識の汎用的利用を提案する。
視覚言語理解タスクのための標準マルチモーダルトランスフォーマー上で知識の抽出,フィルタリング,エンコードを行うフレームワークを設計した。
経験的エビデンスを通じて、知識がインスタンスのみの手がかりをどのように強調するかを示し、データバイアスのトレーニング、回答エンティティ型の正確性の向上、マルチワード名付きエンティティの検出を支援する。
同様の上流ocrシステムとトレーニングデータの制約の下で、2つの公開データセットの最先端に匹敵する結果を生成する。 The open-ended question answering task of Text-VQA requires reading and reasoning about local, often previously unseen, scene-text content of an image to generate answers. In this work, we propose the generalized use of external knowledge to augment our understanding of the said scene-text. We design a framework to extract, filter, and encode knowledge atop a standard multimodal transformer for vision language understanding tasks. Through empirical evidence, we demonstrate how knowledge can highlight instance-only cues and thus help deal with training data bias, improve answer entity type correctness, and detect multiword named entities. We generate results comparable to the state-of-the-art on two publicly available datasets, under the constraints of similar upstream OCR systems and training data. | 翻訳日:2021-08-25 02:21:31 公開日:2021-08-22 |
# (参考訳) ECGからの応力検出のためのトランスアーキテクチャ A Transformer Architecture for Stress Detection from ECG ( http://arxiv.org/abs/2108.09737v1 ) ライセンス: CC BY-SA 4.0 | Behnam Behinaein, Anubhav Bhatti, Dirk Rodenburg, Paul Hungler, Ali Etemad | (参考訳) 心電図(ECG)は感情認識に広く用いられている。
本稿では、畳み込み層に基づくディープニューラルネットワークと、ECG信号を用いたストレス検出のための変圧器機構を提案する。
WESAD と SWELL-KW の2つの公開データセットを用いて,この手法の評価を行った。
実験により,本モデルが2つのデータセットにおけるecgに基づく応力検出の最先端モデルと同等かそれ以上の強い結果が得られることを示した。
さらに,本手法はエンドツーエンドであり,手作りの特徴を必要とせず,数個の畳み込みブロックとトランスフォーマーコンポーネントでロバスト表現を学習できる。 Electrocardiogram (ECG) has been widely used for emotion recognition. This paper presents a deep neural network based on convolutional layers and a transformer mechanism to detect stress using ECG signals. We perform leave-one-subject-out experiments on two publicly available datasets, WESAD and SWELL-KW, to evaluate our method. Our experiments show that the proposed model achieves strong results, comparable or better than the state-of-the-art models for ECG-based stress detection on these two datasets. Moreover, our method is end-to-end, does not require handcrafted features, and can learn robust representations with only a few convolutional blocks and the transformer component. | 翻訳日:2021-08-25 02:04:10 公開日:2021-08-22 |
# (参考訳) クライアントレベルデータ分散シフトのためのフレキシブルクラスタ化フェデレーション学習 Flexible Clustered Federated Learning for Client-Level Data Distribution Shift ( http://arxiv.org/abs/2108.09749v1 ) ライセンス: CC BY 4.0 | Moming Duan, Duo Liu, Xinyuan Ji, Yu Wu, Liang Liang, Xianzhang Chen, Yujuan Tan | (参考訳) フェデレーション学習(fl)は、複数の参加者デバイスが、トレーニングデータをローカルに保持しながら、グローバルなニューラルネットワークモデルに協力的に貢献できるようにする。
集中型トレーニング設定とは異なり、flの非iid、不均衡(統計的不均一性)、分散シフトトレーニングデータをフェデレーションネットワークに分散することにより、ローカルモデルとグローバルモデルとの差異が増大し、パフォーマンスがさらに低下する。
本稿では,フレキシブルクラスタ型フェデレーション学習(CFL)フレームワークFlexCFLを提案する。このフレームワークでは,1) クライアントの最適化方向の類似性に基づいてクライアントのトレーニングをグループ化し,2) フレームワークのスケーラビリティと実用性を実現するための効率的な新商品コールドスタート機構を実装し,3) クライアントレベルのデータ分散シフトの課題を満たすために柔軟にクライアントを移行させる。
FlexCFLは、共同最適化をサブ最適化のグループに分割することで改善を達成でき、分散シフト環境における精度と通信効率のバランスをとることができる。
収束と複雑性はflexcflの効率を示すために分析される。
また、いくつかのオープンデータセット上でFlexCFLを評価し、関連するCFLフレームワークと比較した。
その結果、FedAvgに比べてFlexCFLはFEMNISTでは+10.6%、FashionMNISTでは+3.5%、FedProxでは+8.4%、FeSEMでは+8.4%、絶対テスト精度は+10.6%向上した。
実験の結果,flexcflは分散シフト環境においても通信効率が高いことがわかった。 Federated Learning (FL) enables the multiple participating devices to collaboratively contribute to a global neural network model while keeping the training data locally. Unlike the centralized training setting, the non-IID, imbalanced (statistical heterogeneity) and distribution shifted training data of FL is distributed in the federated network, which will increase the divergences between the local models and the global model, further degrading performance. In this paper, we propose a flexible clustered federated learning (CFL) framework named FlexCFL, in which we 1) group the training of clients based on the similarities between the clients' optimization directions for lower training divergence; 2) implement an efficient newcomer device cold start mechanism for framework scalability and practicality; 3) flexibly migrate clients to meet the challenge of client-level data distribution shift. FlexCFL can achieve improvements by dividing joint optimization into groups of sub-optimization and can strike a balance between accuracy and communication efficiency in the distribution shift environment. The convergence and complexity are analyzed to demonstrate the efficiency of FlexCFL. We also evaluate FlexCFL on several open datasets and made comparisons with related CFL frameworks. The results show that FlexCFL can significantly improve absolute test accuracy by +10.6% on FEMNIST compared to FedAvg, +3.5% on FashionMNIST compared to FedProx, +8.4% on MNIST compared to FeSEM. The experiment results show that FlexCFL is also communication efficient in the distribution shift environment. | 翻訳日:2021-08-25 01:57:43 公開日:2021-08-22 |
# (参考訳) 強化学習への促進的アプローチ A Boosting Approach to Reinforcement Learning ( http://arxiv.org/abs/2108.09767v1 ) ライセンス: CC BY 4.0 | Nataly Brukhim, Elad Hazan, Karan Singh | (参考訳) 複雑度が状態数に依存しないマルコフ決定過程における強化学習のための効率的なアルゴリズムについて検討する。
この定式化は、簡潔に大規模な問題を捉えるが、一般の形で計算的に難しいことも知られている。
前回のアプローチでは、遷移関数または値関数の構造を仮定したり、解の保証を局所最適条件に緩和することで計算の難しさを回避しようとする。
我々は,教師付き学習から借用した,弱い学習者を正確な方針に転換するための促進手法を検討する。
私たちが研究する弱い学習の概念は、ポリシー上の線形関数のサンプルベース近似最適化である。
この弱い学習可能性の仮定の下では、大域的最適性に達するまで、このような弱い学習方法の精度を向上させることができる効率的なアルゴリズムを与える。
本手法では, 近似保証, 割引係数, 分布ミスマッチ, アクション数といった, 問題の自然なパラメータの多項式である, サンプルの複雑性と実行時間境界を証明している。
特に、我々の境界は状態の数に依存しない。
以前のブースティング結果を適用する技術的困難は、ポリシー空間上の値関数が凸でないことである。
本稿では,Frank-Wolfe法の非凸変種を用いる方法と,弱学習者を乗算近似保証に組み込むことで,非凸性を克服し,グローバル収束を実現する勾配向上の最近の進歩を紹介する。 We study efficient algorithms for reinforcement learning in Markov decision processes whose complexity is independent of the number of states. This formulation succinctly captures large scale problems, but is also known to be computationally hard in its general form. Previous approaches attempt to circumvent the computational hardness by assuming structure in either transition function or the value function, or by relaxing the solution guarantee to a local optimality condition. We consider the methodology of boosting, borrowed from supervised learning, for converting weak learners into an accurate policy. The notion of weak learning we study is that of sampled-based approximate optimization of linear functions over policies. Under this assumption of weak learnability, we give an efficient algorithm that is capable of improving the accuracy of such weak learning methods, till global optimality is reached. We prove sample complexity and running time bounds on our method, that are polynomial in the natural parameters of the problem: approximation guarantee, discount factor, distribution mismatch and number of actions. In particular, our bound does not depend on the number of states. A technical difficulty in applying previous boosting results, is that the value function over policy space is not convex. We show how to use a non-convex variant of the Frank-Wolfe method, coupled with recent advances in gradient boosting that allow incorporating a weak learner with multiplicative approximation guarantee, to overcome the non-convexity and attain global convergence. | 翻訳日:2021-08-25 01:24:01 公開日:2021-08-22 |
# (参考訳) cnnと脳の関係--課題と知見 Relating CNNs with brain: Challenges and findings ( http://arxiv.org/abs/2108.09768v1 ) ライセンス: CC BY 4.0 | Reem Abdel-Salam | (参考訳) 霊長類視覚系に緩やかに触発された従来のニューラルネットワークモデル(cnn)は、視覚野の神経反応を予測することが示されている。
しかし、cnnと視覚システムの関係は、多くの理由により不完全である。
一方、最先端のCNNアーキテクチャは非常に複雑ですが、知覚的に小さく、明確に構築された摂動によって騙されるため、ネットワークのレイヤを視覚システムにマッピングし、彼らが何をしているのかを理解するのが難しくなります。
一方で、cnnの特徴空間と視覚野の空間領域の間の正確なマッピングが分からないため、神経反応を正確に予測することは困難である。
本稿では,Algonauts Project 2021 Challenge: "How the Human Brain Makes Sense of a World in Motion" の一環として,視覚野と脳全体の神経反応を予測するための課題と方法について述べる。 Conventional neural network models (CNN), loosely inspired by the primate visual system, have been shown to predict neural responses in the visual cortex. However, the relationship between CNNs and the visual system is incomplete due to many reasons. On one hand state of the art CNN architecture is very complex, yet can be fooled by imperceptibly small, explicitly crafted perturbations which makes it hard difficult to map layers of the network with the visual system and to understand what they are doing. On the other hand, we don't know the exact mapping between feature space of the CNNs and the space domain of the visual cortex, which makes it hard to accurately predict neural responses. In this paper we review the challenges and the methods that have been used to predict neural responses in the visual cortex and whole brain as part of The Algonauts Project 2021 Challenge: "How the Human Brain Makes Sense of a World in Motion". | 翻訳日:2021-08-25 01:03:45 公開日:2021-08-22 |
# (参考訳) gpuシミュレーションからリモート実世界トリフィンガーへのデクスタース操作の転送 Transferring Dexterous Manipulation from GPU Simulation to a Remote Real-World TriFinger ( http://arxiv.org/abs/2108.09779v1 ) ライセンス: CC BY 4.0 | Arthur Allshire, Mayank Mittal, Varun Lodaya, Viktor Makoviychuk, Denys Makoviichuk, Felix Widmaier, Manuel W\"uthrich, Stefan Bauer, Ankur Handa, Animesh Garg | (参考訳) 本稿では,NVIDIAのIsaacGymシミュレータでトレーニングした3つのフィンガーだけで,立方体を任意の6-DoFポーズに移動させるという,困難な操作課題を学習するシステムを提案する。
提案手法は,6自由度,報酬計算,およびモデルフリー強化学習エージェントの訓練において,対象ポーズの位置+四元表現とは対照的に,シミュレーションとsim-to-real転送の両方において経験的利点を示す。
操作対象のポーズのキーポイント表現とともにドメインランダム化戦略を活用することにより,リアルロボットチャレンジの主催者が保持する遠隔トリフィンガーシステムにおいて,高い成功率を83%達成する。
インハンド操作のさらなる研究を支援することを目的として、私たちはシステムのコードベースと、何十億もの経験を積んだトレーニング済みのチェックポイントをhttps://s2r2-ig.github.ioで公開しています。 We present a system for learning a challenging dexterous manipulation task involving moving a cube to an arbitrary 6-DoF pose with only 3-fingers trained with NVIDIA's IsaacGym simulator. We show empirical benefits, both in simulation and sim-to-real transfer, of using keypoints as opposed to position+quaternion representations for the object pose in 6-DoF for policy observations and in reward calculation to train a model-free reinforcement learning agent. By utilizing domain randomization strategies along with the keypoint representation of the pose of the manipulated object, we achieve a high success rate of 83% on a remote TriFinger system maintained by the organizers of the Real Robot Challenge. With the aim of assisting further research in learning in-hand manipulation, we make the codebase of our system, along with trained checkpoints that come with billions of steps of experience available, at https://s2r2-ig.github.io | 翻訳日:2021-08-25 00:54:19 公開日:2021-08-22 |
# (参考訳) 粗いラベルから学習する効率的なアルゴリズム Efficient Algorithms for Learning from Coarse Labels ( http://arxiv.org/abs/2108.09805v1 ) ライセンス: CC BY 4.0 | Dimitris Fotakis, Alkis Kalavasis, Vasilis Kontonis, Christos Tzamos | (参考訳) 多くの学習問題では、細かなラベル情報にアクセスできない場合がある。例えば、画像は注釈の専門知識によっては、ハスキー、犬、さらには動物と分類できる。
本研究では,これらの設定を定式化し,粗いデータから学習する問題を考察する。
設定された$\mathcal{Z}$から実際のラベルを観察する代わりに、$\mathcal{Z}$(またはパーティションの混合)のパーティションに対応する粗いラベルを観察します。
私たちのアルゴリズムの主な結果は、粗いデータが十分に有益であるときに、きめ細かいラベルから学べるどんな問題も効率的に学習できるということです。
粗いラベルのみを付与したきめ細かなラベルに対して、統計的クエリ(SQ)に応答する一般的なリダクションにより、この結果を得る。
要求される粗いラベルの数は、粗さによる情報歪みと ||\mathcal{z}|$ の細かいラベルの数に多項式的に依存する。
また、検閲された統計学における中心的な問題に焦点をあてた(無限に多くの)実価値ラベルについても検討する: ガウス平均は粗いデータから推定される。
分割中の集合が凸であるときに効率的なアルゴリズムを提供し、非常に単純な非凸集合に対してもNPハードであることを示す。 For many learning problems one may not have access to fine grained label information; e.g., an image can be labeled as husky, dog, or even animal depending on the expertise of the annotator. In this work, we formalize these settings and study the problem of learning from such coarse data. Instead of observing the actual labels from a set $\mathcal{Z}$, we observe coarse labels corresponding to a partition of $\mathcal{Z}$ (or a mixture of partitions). Our main algorithmic result is that essentially any problem learnable from fine grained labels can also be learned efficiently when the coarse data are sufficiently informative. We obtain our result through a generic reduction for answering Statistical Queries (SQ) over fine grained labels given only coarse labels. The number of coarse labels required depends polynomially on the information distortion due to coarsening and the number of fine labels $|\mathcal{Z}|$. We also investigate the case of (infinitely many) real valued labels focusing on a central problem in censored and truncated statistics: Gaussian mean estimation from coarse data. We provide an efficient algorithm when the sets in the partition are convex and establish that the problem is NP-hard even for very simple non-convex sets. | 翻訳日:2021-08-25 00:37:37 公開日:2021-08-22 |
# (参考訳) UzBERT:Uzbek向けのBERTモデルの事前トレーニング UzBERT: pretraining a BERT model for Uzbek ( http://arxiv.org/abs/2108.09814v1 ) ライセンス: CC BY 4.0 | B. Mansurov and A. Mansurov | (参考訳) Transformerアーキテクチャに基づく事前訓練された言語モデルは、音声のタグ付け、名前付きエンティティ認識、質問応答など、様々な自然言語処理タスクにおいて最先端の結果を得た。
しかしながら、ウズベク語に対するそのような単言語モデルは公開されていない。
本稿では,BERTアーキテクチャに基づく事前訓練されたウズベク語モデルであるUzBERTを紹介する。
我々のモデルは、マスキング言語モデルの精度で多言語BERTを大幅に上回る。
私たちはこのモデルをMITオープンソースライセンスで公開しています。 Pretrained language models based on the Transformer architecture have achieved state-of-the-art results in various natural language processing tasks such as part-of-speech tagging, named entity recognition, and question answering. However, no such monolingual model for the Uzbek language is publicly available. In this paper, we introduce UzBERT, a pretrained Uzbek language model based on the BERT architecture. Our model greatly outperforms multilingual BERT on masked language model accuracy. We make the model publicly available under the MIT open-source license. | 翻訳日:2021-08-25 00:36:33 公開日:2021-08-22 |
# (参考訳) セッションアウェア・レコメンダシステムのための多人数RNNを用いたデータ拡張 Data Augmentation Using Many-To-Many RNNs for Session-Aware Recommender Systems ( http://arxiv.org/abs/2108.09858v1 ) ライセンス: CC BY 4.0 | Mart\'in Baigorria Alonso | (参考訳) booking.com が主催する acm wsdm webtour 2021 challenge では,旅行ドメインにセッションアウェアレコメンダシステムを適用することに焦点を当てている。
ユーザ旅行における旅行予約のシーケンスを考えると、私たちはユーザの次の目的地を推奨します。
出力空間の広い次元を扱うため,本論文では,ユーザが選択した次の目的地を,最終ステップではなくシーケンスステップ毎に予測する多対多のrnnモデルを提案する。
1つのrnnでデータ拡張を行うのに、これが計算効率の良い代替手段であることを示し、最初の要素から始まり、セッションの全てのサブシーケンスを考える。
私たちのソリューションは最終リードボードで4位となり、精度@4は 0.5566でした。 The ACM WSDM WebTour 2021 Challenge organized by Booking.com focuses on applying Session-Aware recommender systems in the travel domain. Given a sequence of travel bookings in a user trip, we look to recommend the user's next destination. To handle the large dimensionality of the output's space, we propose a many-to-many RNN model, predicting the next destination chosen by the user at every sequence step as opposed to only the final one. We show how this is a computationally efficient alternative to doing data augmentation in a many-to-one RNN, where we consider every subsequence of a session starting from the first element. Our solution achieved 4th place in the final leaderboard, with an accuracy@4 of 0.5566. | 翻訳日:2021-08-25 00:27:09 公開日:2021-08-22 |
# 新しい深部ニューラルネットワークによる気象予報を用いた風力予測 Wind Power Projection using Weather Forecasts by Novel Deep Neural Networks ( http://arxiv.org/abs/2108.09797v1 ) ライセンス: Link先を確認 | Alagappan Swaminathan, Venkatakrishnan Sutharsan, Tamilselvi Selvaraj | (参考訳) 従来のエネルギー生産方法から再生可能エネルギー生産への移行は、今後の再生可能エネルギー供給の予測モデルを改善する必要がある。
風力発電では、風の断続性のため、予測生産における誤差を否定することは不可能である。
電力グリッドの統合を成功させるためには、風力発電の予測に生じる不確実性を理解し、この情報を用いて正確で信頼性の高い予測を構築することが不可欠である。
これは風速、温度、風方向などの異なるパラメータの変更によって風力発電の変動を観測し、それに対する機能依存を導出することで達成できる。
最適化された機械学習アルゴリズムを用いることで、観測結果に隠れたパターンを見つけ、意味のあるデータを得ることができ、風力要求を正確に予測することができる。
BableshwarのGamesa's Wind Farmが提供する必要なデータを利用することで、電力曲線を用いた風力予測のパラメトリックモデルと非パラメトリックモデルの両方を探索する。
得られた結果は, 使用済みモデルの精度をよりよく理解するために比較され, 与えられたデータセットに基づいて風力発電の予測に最も適したモデルが決定される。 The transition from conventional methods of energy production to renewable energy production necessitates better prediction models of the upcoming supply of renewable energy. In wind power production, error in forecasting production is impossible to negate owing to the intermittence of wind. For successful power grid integration, it is crucial to understand the uncertainties that arise in predicting wind power production and use this information to build an accurate and reliable forecast. This can be achieved by observing the fluctuations in wind power production with changes in different parameters such as wind speed, temperature, and wind direction, and deriving functional dependencies for the same. Using optimized machine learning algorithms, it is possible to find obscured patterns in the observations and obtain meaningful data, which can then be used to accurately predict wind power requirements . Utilizing the required data provided by the Gamesa's wind farm at Bableshwar, the paper explores the use of both parametric and the non-parametric models for calculating wind power prediction using power curves. The obtained results are subject to comparison to better understand the accuracy of the utilized models and to determine the most suitable model for predicting wind power production based on the given data set. | 翻訳日:2021-08-24 16:02:43 公開日:2021-08-22 |
# 部分輸送による効率的なミニバッチ法 An Efficient Mini-batch Method via Partial Transportation ( http://arxiv.org/abs/2108.09645v1 ) ライセンス: Link先を確認 | Khai Nguyen, Dang Nguyen, Tung Pham, Nhat Ho | (参考訳) ミニバッチ最適輸送(m-OT)は、大規模アプリケーションにおけるOTのメモリ問題に広く利用されている。
実用性にも拘わらず、m-OTは不特定マッピング、すなわち、ミニバッチレベルで最適であるが元の測度間の最適な輸送計画には存在しないマッピングに悩まされている。
そこで,本研究では,ミニバッチの最適輸送(m-POT)を,ミニバッチの最適輸送(m-POT)と呼ぶ実験値間の部分最適輸送(POT)を用いて提案する。
部分輸送からの洞察を生かして,m-otからの誤特定マッピングの原因を説明し,ポット経由のミニバッチ間の移動質量の制限が不正確なマッピングを緩和する理由を説明する。
最後に, m-POT と m-OT を比較し,最近提案したミニバッチ法, ミニバッチ不均衡最適輸送 (m-UOT) について広範な実験を行った。
我々はm-POTがm-UOTに匹敵する性能を持ちながらm-OT深部ドメイン適応アプリケーションよりも優れていることを観察した。
深部生成モデル、勾配流、色移動などの他の応用では、m-POTはm-OTおよびm-UOTよりも良好な性能が得られる。 Mini-batch optimal transport (m-OT) has been widely used recently to deal with the memory issue of OT in large-scale applications. Despite their practicality, m-OT suffers from misspecified mappings, namely, mappings that are optimal on the mini-batch level but do not exist in the optimal transportation plan between the original measures. To address the misspecified mappings issue, we propose a novel mini-batch method by using partial optimal transport (POT) between mini-batch empirical measures, which we refer to as mini-batch partial optimal transport (m-POT). Leveraging the insight from the partial transportation, we explain the source of misspecified mappings from the m-OT and motivate why limiting the amount of transported masses among mini-batches via POT can alleviate the incorrect mappings. Finally, we carry out extensive experiments on various applications to compare m-POT with m-OT and recently proposed mini-batch method, mini-batch unbalanced optimal transport (m-UOT). We observe that m-POT is better than m-OT deep domain adaptation applications while having comparable performance with m-UOT. On other applications, such as deep generative model, gradient flow, and color transfer, m-POT yields more favorable performance than both m-OT and m-UOT. | 翻訳日:2021-08-24 16:01:41 公開日:2021-08-22 |
# 普遍的単調誤差をもつ普遍的一貫した学習規則 A universally consistent learning rule with a universally monotone error ( http://arxiv.org/abs/2108.09733v1 ) ライセンス: Link先を確認 | Vladimir Pestov | (参考訳) 予測誤差が単調な単調な一貫した学習規則を各データ分布の標本サイズで提案する。
このような規則の存在に関する問題は、1996年にDevroye, Gy\"orfi and Lugosi(彼はそれを"smart"と呼んだ)によって提起された。
我々の規則は完全に決定論的であり、任意の領域(標準ボレル空間)で巡回順序を用いて構築されたデータ依存の分割規則である。
中心となる考え方は、各ステップでラベルの十分な経験的多様性を示す循環区間のみを分割することであり、エラー関数が凸である領域を避けることである。 We present a universally consistent learning rule whose expected error is monotone non-increasing with the sample size under every data distribution. The question of existence of such rules was brought up in 1996 by Devroye, Gy\"orfi and Lugosi (who called them "smart"). Our rule is fully deterministic, a data-dependent partitioning rule constructed in an arbitrary domain (a standard Borel space) using a cyclic order. The central idea is to only partition at each step those cyclic intervals that exhibit a sufficient empirical diversity of labels, thus avoiding a region where the error function is convex. | 翻訳日:2021-08-24 16:01:17 公開日:2021-08-22 |
# Pi-NAS: スーパーネットトレーニング一貫性シフトの低減によるニューラルネットワーク検索の改善 Pi-NAS: Improving Neural Architecture Search by Reducing Supernet Training Consistency Shift ( http://arxiv.org/abs/2108.09671v1 ) ライセンス: Link先を確認 | Jiefeng Peng, Jiqi Zhang, Changlin Li, Guangrun Wang, Xiaodan Liang, Liang Lin | (参考訳) 最近提案されたニューラルアーキテクチャサーチ (NAS) 手法は、スーパーネット内の数十億のアーキテクチャを共存させ、スーパーネットから分離したネットワーク重みを用いてその潜在的な精度を推定する。
しかし、予測されたアーキテクチャの精度と実際の能力とのランキングの相関は誤りであり、既存のnasメソッドのジレンマを引き起こす。
このランク付け相関問題は,特徴シフトやパラメータシフトを含む,スーパーネットトレーニングの整合性シフトに起因する。
特徴シフトはランダムパスサンプリングによる隠蔽層の動的入力分布として同定される。
入力分布は損失降下に影響を与え、最終的にアーキテクチャのランキングに影響を及ぼす。
パラメータシフトは、異なるトレーニングステップで異なるパスに配置された共有層に対する矛盾パラメータ更新として識別される。
急速に変化するパラメータは、アーキテクチャのランキングを保存できませんでした。
この2つのシフトを、Pi-NASと呼ばれる非自明なスーパーネットPiモデルを用いて同時に解決する。
具体的には,クロスパス学習を含むスーパーネットpiモデルを用いて,異なるパス間の機能一貫性のシフトを低減する。
一方,パラメータシフトやモデル衝突を克服するために,負のサンプルを含む新しい非自明な平均教師を採用する。
さらに、我々のPi-NASは教師なしの方法で動作し、より転送可能なアーキテクチャを検索できる。
ImageNetと幅広い下流タスク(COCO 2017、ADE20K、Cityscapesなど)に関する大規模な実験は、監督されたNASと比較して、Pi-NASの有効性と普遍性を示している。
コード:https://github.com/Ernie1/Pi-NASを参照。 Recently proposed neural architecture search (NAS) methods co-train billions of architectures in a supernet and estimate their potential accuracy using the network weights detached from the supernet. However, the ranking correlation between the architectures' predicted accuracy and their actual capability is incorrect, which causes the existing NAS methods' dilemma. We attribute this ranking correlation problem to the supernet training consistency shift, including feature shift and parameter shift. Feature shift is identified as dynamic input distributions of a hidden layer due to random path sampling. The input distribution dynamic affects the loss descent and finally affects architecture ranking. Parameter shift is identified as contradictory parameter updates for a shared layer lay in different paths in different training steps. The rapidly-changing parameter could not preserve architecture ranking. We address these two shifts simultaneously using a nontrivial supernet-Pi model, called Pi-NAS. Specifically, we employ a supernet-Pi model that contains cross-path learning to reduce the feature consistency shift between different paths. Meanwhile, we adopt a novel nontrivial mean teacher containing negative samples to overcome parameter shift and model collision. Furthermore, our Pi-NAS runs in an unsupervised manner, which can search for more transferable architectures. Extensive experiments on ImageNet and a wide range of downstream tasks (e.g., COCO 2017, ADE20K, and Cityscapes) demonstrate the effectiveness and universality of our Pi-NAS compared to supervised NAS. See Codes: https://github.com/Ernie1/Pi-NAS. | 翻訳日:2021-08-24 15:59:33 公開日:2021-08-22 |
# 多変量時系列予測のための進化的アンサンブル学習 Evolutionary Ensemble Learning for Multivariate Time Series Prediction ( http://arxiv.org/abs/2108.09659v1 ) ライセンス: Link先を確認 | Hui Song, A. K. Qin, Flora D. Salim | (参考訳) 多変量時系列(multivariate time series, mts)予測は金融、エネルギー、輸送といった多くの分野において重要な役割を果たす。
mts予測モデル(pm)を構築する典型的なパイプラインは、利用可能なチャネルのサブセットを選択し、選択されたチャネルから特徴を抽出することと、抽出された特徴に基づいてpmを構築することで構成される。
したがって、最適な予測性能の追求は、関連するすべての最適化問題を解決することでパイプラインの最適化に対応する。
これは解空間の広さによる非自明な仕事である。
パイプラインの特定のコンポーネントの最適化を目標とする既存の作業の多くとは違い,パイプライン全体を総合的に最適化する新たな進化的アンサンブル学習フレームワークを提案する。
このフレームワークでは、特定のパイプラインを候補解として符号化し、異なる集団サイズで多目的進化アルゴリズムを適用して複数のパレート最適集合(POS)を生成する。
最後に、選択アンサンブル学習は、POSから解の最適部分集合を選択し、それらを組み合わせて、グレディシーケンシャル選択と最小二乗法を用いて最終的な予測を得るように設計されている。
提案フレームワークを実装し,実世界の電力消費予測と空気品質予測という2つのアプリケーションの実装を評価する。
最先端技術との比較により,提案手法の優位性を示した。 Multivariate time series (MTS) prediction plays a key role in many fields such as finance, energy and transport, where each individual time series corresponds to the data collected from a certain data source, so-called channel. A typical pipeline of building an MTS prediction model (PM) consists of selecting a subset of channels among all available ones, extracting features from the selected channels, and building a PM based on the extracted features, where each component involves certain optimization tasks, i.e., selection of channels, feature extraction (FE) methods, and PMs as well as configuration of the selected FE method and PM. Accordingly, pursuing the best prediction performance corresponds to optimizing the pipeline by solving all of its involved optimization problems. This is a non-trivial task due to the vastness of the solution space. Different from most of the existing works which target at optimizing certain components of the pipeline, we propose a novel evolutionary ensemble learning framework to optimize the entire pipeline in a holistic manner. In this framework, a specific pipeline is encoded as a candidate solution and a multi-objective evolutionary algorithm is applied under different population sizes to produce multiple Pareto optimal sets (POSs). Finally, selective ensemble learning is designed to choose the optimal subset of solutions from the POSs and combine them to yield final prediction by using greedy sequential selection and least square methods. We implement the proposed framework and evaluate our implementation on two real-world applications, i.e., electricity consumption prediction and air quality prediction. The performance comparison with state-of-the-art techniques demonstrates the superiority of the proposed approach. | 翻訳日:2021-08-24 15:58:14 公開日:2021-08-22 |
# 独立成分分析による脳波信号処理と畳み込みニューラルネットワークを用いた認知的ストレス分類 Electroencephalogram Signal Processing with Independent Component Analysis and Cognitive Stress Classification using Convolutional Neural Networks ( http://arxiv.org/abs/2108.09817v1 ) ライセンス: Link先を確認 | Venkatakrishnan Sutharsan, Alagappan Swaminathan, Saisrinivasan Ramachandran, Madan Kumar Lakshmanan, Balaji Mahadevan | (参考訳) eeg(electroencephalogram)は、頭皮上に置かれた電極から得られる生体電気信号の活性による記録である。
脳波信号(EEG)記録では、得られた信号は、主にEOG信号によって汚染される。
このアーチファクトは脳波信号よりも大きいため、医療診断などの応用において人間の脳の機能をよりよく理解するために、これらのノイズ信号を除去する必要がある。
本稿では,独立成分分析(ICA)を用いた脳波信号の相互相関について提案する。
これは、相関係数に基づく成分をしきい値で選択し、完全にゼロにするのではなくその効果を低減し、情報損失を低減することによって行われる。
記録データの結果から,脳波データの損失が少なく,EOG信号のアーチファクトを除去できることが示唆された。
SNR値の増大と相関係数値の減少によりデノナイジングが検証される。
識別された信号は、入力された脳波信号の特徴を調べ、個人のストレスレベルを予測する人工ニューラルネットワーク(ANN)のトレーニングに使用される。 Electroencephalogram (EEG) is the recording which is the result due to the activity of bio-electrical signals that is acquired from electrodes placed on the scalp. In Electroencephalogram signal(EEG) recordings, the signals obtained are contaminated predominantly by the Electrooculogram(EOG) signal. Since this artifact has higher magnitude compared to EEG signals, these noise signals have to be removed in order to have a better understanding regarding the functioning of a human brain for applications such as medical diagnosis. This paper proposes an idea of using Independent Component Analysis(ICA) along with cross-correlation to de-noise EEG signal. This is done by selecting the component based on the cross-correlation coefficient with a threshold value and reducing its effect instead of zeroing it out completely, thus reducing the information loss. The results of the recorded data show that this algorithm can eliminate the EOG signal artifact with little loss in EEG data. The denoising is verified by an increase in SNR value and the decrease in cross-correlation coefficient value. The denoised signals are used to train an Artificial Neural Network(ANN) which would examine the features of the input EEG signal and predict the stress levels of the individual. | 翻訳日:2021-08-24 15:57:47 公開日:2021-08-22 |
# 量子機械学習の新しい潮流 New Trends in Quantum Machine Learning ( http://arxiv.org/abs/2108.09664v1 ) ライセンス: Link先を確認 | Lorenzo Buffoni and Filippo Caruso | (参考訳) ここでは、機械学習と量子物理学の新たな相互作用の可能性について展望する。
我々は、物理ハードウェアのブレークスルーによって計算をスピードアップする新しい方法を見つけるために、新しい量子技術とアルゴリズムから機械学習の恩恵を受ける方法を探り、既存のモデルを改善したり、量子領域で新しい学習スキームを考案したりする。
さらに、膨大な量のデータを生成する量子物理学の実験や機械学習は、それらを分析して予測したり、実験自体を制御したりするのに最適なツールとなるでしょう。
それに加えて、機械学習から借用されたデータ可視化技術やその他のスキームは、複雑な多様体の構造に関する直観や理論モデルに関する予測を行う上で、理論家にとって非常に有用である。
量子機械学習(Quantum Machine Learning)と名付けられたこの新しい研究分野は、古典的なものよりも大きなアドバンテージを提供すると期待されているため、急速に成長している。 Here we will give a perspective on new possible interplays between Machine Learning and Quantum Physics, including also practical cases and applications. We will explore the ways in which machine learning could benefit from new quantum technologies and algorithms to find new ways to speed up their computations by breakthroughs in physical hardware, as well as to improve existing models or devise new learning schemes in the quantum domain. Moreover, there are lots of experiments in quantum physics that do generate incredible amounts of data and machine learning would be a great tool to analyze those and make predictions, or even control the experiment itself. On top of that, data visualization techniques and other schemes borrowed from machine learning can be of great use to theoreticians to have better intuition on the structure of complex manifolds or to make predictions on theoretical models. This new research field, named as Quantum Machine Learning, is very rapidly growing since it is expected to provide huge advantages over its classical counterpart and deeper investigations are timely needed since they can be already tested on the already commercially available quantum machines. | 翻訳日:2021-08-24 15:55:40 公開日:2021-08-22 |
# スパース分解と低ランク分解による凸潜在効果ロジットモデル Convex Latent Effect Logit Model via Sparse and Low-rank Decomposition ( http://arxiv.org/abs/2108.09859v1 ) ライセンス: Link先を確認 | Hongyuan Zhan and Kamesh Madduri and Venkataraman Shankar | (参考訳) 本稿では,低集団に対する潜在的不均一性を考慮したロジスティック回帰モデル(logit)の学習のための凸定式化を提案する。
輸送において、ロジスティック回帰とその変種はしばしばユーティリティ理論の下で離散選択モデルとして解釈される(McFadden, 2001)。
交通分野におけるlogitモデルの2つの顕著な応用は、交通事故分析と選択モデリングである。
これらのアプリケーションでは、研究者は、同じ事故や選択シナリオの下で個々のバリエーションを理解し、捉えたいことが多い。
混合効果ロジスティック回帰(mixed logit)は、輸送研究者が採用する一般的なモデルである。
混合ロジットパラメータの分布を推定するには,ネストした高次元積分を用いた非凸最適化問題を解く必要がある。
シミュレーションに基づく最適化は通常、混合ロジットパラメータ推定問題を解くために適用される。
その人気にもかかわらず、個人の多様性を学ぶための混合logitアプローチにはいくつかの欠点がある。
まず、この分布のパラメトリックな形式は、非パラメトリックなアプローチを用いてある程度対処できるが、ユーザによって課されるドメイン知識と仮定を必要とする。
第二に、最適化問題は混合ロジットのパラメータ推定から生じ、非パラメトリック拡張は非凸であり、不安定なモデル解釈につながる。
第3に、シミュレーション支援推定におけるシミュレーションサイズは有限サンプル理論の保証を欠き、実際にはある程度任意に選択される。
これらの問題に対処するため、我々は、凸性を維持しながら潜伏した個々の不均一性をモデル化し、シミュレーションに基づく近似の必要性を回避するための定式化を開発する。
我々の構成は、各個体の集団における疎等質成分と低等質成分にパラメータを分解することに基づいている。 In this paper, we propose a convex formulation for learning logistic regression model (logit) with latent heterogeneous effect on sub-population. In transportation, logistic regression and its variants are often interpreted as discrete choice models under utility theory (McFadden, 2001). Two prominent applications of logit models in the transportation domain are traffic accident analysis and choice modeling. In these applications, researchers often want to understand and capture the individual variation under the same accident or choice scenario. The mixed effect logistic regression (mixed logit) is a popular model employed by transportation researchers. To estimate the distribution of mixed logit parameters, a non-convex optimization problem with nested high-dimensional integrals needs to be solved. Simulation-based optimization is typically applied to solve the mixed logit parameter estimation problem. Despite its popularity, the mixed logit approach for learning individual heterogeneity has several downsides. First, the parametric form of the distribution requires domain knowledge and assumptions imposed by users, although this issue can be addressed to some extent by using a non-parametric approach. Second, the optimization problems arise from parameter estimation for mixed logit and the non-parametric extensions are non-convex, which leads to unstable model interpretation. Third, the simulation size in simulation-assisted estimation lacks finite-sample theoretical guarantees and is chosen somewhat arbitrarily in practice. To address these issues, we are motivated to develop a formulation that models the latent individual heterogeneity while preserving convexity, and avoids the need for simulation-based approximation. Our setup is based on decomposing the parameters into a sparse homogeneous component in the population and low-rank heterogeneous parts for each individual. | 翻訳日:2021-08-24 15:55:21 公開日:2021-08-22 |
# DisenKGAT:分散グラフ注意ネットワークを用いた知識グラフ埋め込み DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention Network ( http://arxiv.org/abs/2108.09628v1 ) ライセンス: Link先を確認 | Junkang Wu, Wentao Shi, Xuezhi Cao, Jiawei Chen, Wenqiang Lei, Fuzheng Zhang, Wei Wu and Xiangnan He | (参考訳) 知識グラフ補完(KGC)は、多くの下流タスクへの優れた貢献により、ディープラーニングコミュニティ全体の注目を集めている。
最近、KGCの研究が急増しているのを目撃したが、それらは単一の静的表現を採用するため、複雑な関係を正確に捉えるには不十分である。
本研究では,知識グラフ(kgs)の背後にある表現を活用し,マイクロ・ディエンタングル化とマクロ・ディエンタングル化を両立させた,新たな知識グラフアテンションネットワーク(disenkgat)を提案する。
マイクロディスタングルを実現するために,多様なコンポーネント表現を学習するための新しい関係認識アグリゲーションを提案する。
マクロ・ディスタングルメントでは、相互情報を正規化として利用し、独立性を高める。
絡み合いの助けを借りて、モデルは与えられたシナリオの観点で適応表現を生成することができる。
さらに、当社の作業は、さまざまなスコア機能に適応する強力な堅牢性と柔軟性を備えています。
既存の手法よりも精度と説明可能性の両面でDisenKGATの優位性を検証するために,公開ベンチマークデータセットの大規模な実験が行われた。 Knowledge graph completion (KGC) has become a focus of attention across deep learning community owing to its excellent contribution to numerous downstream tasks. Although recently have witnessed a surge of work on KGC, they are still insufficient to accurately capture complex relations, since they adopt the single and static representations. In this work, we propose a novel Disentangled Knowledge Graph Attention Network (DisenKGAT) for KGC, which leverages both micro-disentanglement and macro-disentanglement to exploit representations behind Knowledge graphs (KGs). To achieve micro-disentanglement, we put forward a novel relation-aware aggregation to learn diverse component representation. For macro-disentanglement, we leverage mutual information as a regularization to enhance independence. With the assistance of disentanglement, our model is able to generate adaptive representations in terms of the given scenario. Besides, our work has strong robustness and flexibility to adapt to various score functions. Extensive experiments on public benchmark datasets have been conducted to validate the superiority of DisenKGAT over existing methods in terms of both accuracy and explainability. | 翻訳日:2021-08-24 15:50:31 公開日:2021-08-22 |
# StarVQA:ビデオ品質評価のための時空間アテンション StarVQA: Space-Time Attention for Video Quality Assessment ( http://arxiv.org/abs/2108.09635v1 ) ライセンス: Link先を確認 | Fengchuang Xing, Yuan-Gen Wang, Hanpin Wang, Leida Li, and Guopu Zhu | (参考訳) 注目のメカニズムは近年コンピュータビジョンで開きつつある。
しかし,ビデオ品質評価(VQA)への応用は報告されていない。
地中ビデオの品質を評価することは、プリスタン参照の未知と撮影歪みのために難しい。
本稿では,StarVQA 問題として,新規な \underline{s}pace-\underline{t}ime \underline{a}ttention network fo\underline{r} を提案する。
StarVQAは、分割された時空の注意を交互に結合することでトランスフォーマーを構築する。
トレーニングにトランスフォーマーアーキテクチャを適用するため、starvqaは平均意見スコア(mos)を確率ベクトルに符号化し、特別ベクトルラベルトークンを学習可能な変数として組み込むことにより、ベクトル化回帰損失を設計できる。
ビデオシーケンスの長距離時空間依存性をキャプチャするために、starvqaは、各パッチの時空位置情報をトランスフォーマの入力にエンコードする。
LIVE-VQC, KoNViD-1k, LSVQ, LSVQ-1080p などのビデオデータセットのデファクト化実験を行った。
実験結果から,提案するstarvqaは最先端技術よりも優れていることが示された。
コードとモデルはhttps://github.com/dvl/starvqaで入手できる。 The attention mechanism is blooming in computer vision nowadays. However, its application to video quality assessment (VQA) has not been reported. Evaluating the quality of in-the-wild videos is challenging due to the unknown of pristine reference and shooting distortion. This paper presents a novel \underline{s}pace-\underline{t}ime \underline{a}ttention network fo\underline{r} the \underline{VQA} problem, named StarVQA. StarVQA builds a Transformer by alternately concatenating the divided space-time attention. To adapt the Transformer architecture for training, StarVQA designs a vectorized regression loss by encoding the mean opinion score (MOS) to the probability vector and embedding a special vectorized label token as the learnable variable. To capture the long-range spatiotemporal dependencies of a video sequence, StarVQA encodes the space-time position information of each patch to the input of the Transformer. Various experiments are conducted on the de-facto in-the-wild video datasets, including LIVE-VQC, KoNViD-1k, LSVQ, and LSVQ-1080p. Experimental results demonstrate the superiority of the proposed StarVQA over the state-of-the-art. Code and model will be available at: https://github.com/DVL/StarVQA. | 翻訳日:2021-08-24 15:46:48 公開日:2021-08-22 |
# 水中画像強調のための領域適応 Domain Adaptation for Underwater Image Enhancement ( http://arxiv.org/abs/2108.09650v1 ) ライセンス: Link先を確認 | Zhengyong Wang, Liquan Shen, Mei Yu, Kun Wang, Yufei Lin and Mai Xu | (参考訳) 近年,水中画像強調において,学習に基づくアルゴリズムの性能が顕著に向上している。
多くは合成データのトレーニングに頼り、優れたパフォーマンスを達成する。
しかし、これらの手法は合成データと実際の領域間ギャップ(すなわち、ドメイン間ギャップ)を無視するので、合成データで訓練されたモデルは実際の水中シナリオによく当てはまらないことが多い。
さらに、複雑で変更可能な水中環境は、実際のデータ自身(すなわちドメイン内ギャップ)の間で大きな分散ギャップを引き起こす。
しかし、この問題に焦点をあてる研究はほとんどなく、それらの技術は様々な実画像に視覚的に無害なアーティファクトや色歪みをもたらすことが多い。
これらの観測により,ドメイン間およびドメイン内ギャップを最小化する新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
具体的には、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む第1フェーズに、新たなデュアルアライメントネットワークを設計する。
画像レベルと特徴レベルを2つの部分で比較学習することにより、ネットワークはドメイン間の不変性を向上し、ドメイン間のギャップを橋渡しすることができる。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
ランキングから学習した暗黙の品質情報を活用することで、強調画像の知覚品質をより正確に評価することができる。
簡単な部分からの擬似ラベルを用いて、容易かつハードなサンプル間のドメイン内ギャップを効果的に低減する、容易かつハードな適応技術を行う。 Recently, learning-based algorithms have shown impressive performance in underwater image enhancement. Most of them resort to training on synthetic data and achieve outstanding performance. However, these methods ignore the significant domain gap between the synthetic and real data (i.e., interdomain gap), and thus the models trained on synthetic data often fail to generalize well to real underwater scenarios. Furthermore, the complex and changeable underwater environment also causes a great distribution gap among the real data itself (i.e., intra-domain gap). However, almost no research focuses on this problem and thus their techniques often produce visually unpleasing artifacts and color distortions on various real images. Motivated by these observations, we propose a novel Two-phase Underwater Domain Adaptation network (TUDA) to simultaneously minimize the inter-domain and intra-domain gap. Concretely, a new dual-alignment network is designed in the first phase, including a translation part for enhancing realism of input images, followed by an enhancement part. With performing image-level and feature-level adaptation in two parts by jointly adversarial learning, the network can better build invariance across domains and thus bridge the inter-domain gap. In the second phase, we perform an easy-hard classification of real data according to the assessed quality of enhanced images, where a rank-based underwater quality assessment method is embedded. By leveraging implicit quality information learned from rankings, this method can more accurately assess the perceptual quality of enhanced images. Using pseudo labels from the easy part, an easy-hard adaptation technique is then conducted to effectively decrease the intra-domain gap between easy and hard samples. | 翻訳日:2021-08-24 15:46:28 公開日:2021-08-22 |
# 2つから1つ:ビジュアル言語モデリングネットワークを備えた新しいシーンテキスト認識器 From Two to One: A New Scene Text Recognizer with Visual Language Modeling Network ( http://arxiv.org/abs/2108.09661v1 ) ライセンス: Link先を確認 | Yuxin Wang, Hongtao Xie, Shancheng Fang, Jing Wang, Shenggao Zhu and Yongdong Zhang | (参考訳) 本稿では,支配的な複雑な言語モデルを捨て,シーンテキスト認識における言語学習プロセスを再考する。
視覚的・言語的情報を2つの異なる構造で考える従来の手法とは違って,視覚的・言語的情報を言語能力に直結させることで,連合体とみなす視覚的言語モデリングネットワーク(VisionLAN)を提案する。
特に, 訓練段階では, 字幕付き特徴地図のテキスト認識について紹介する。
このような操作は、視覚モデルに対して、文字の視覚的テクスチャだけでなく、視覚的手がかりが混同されている場合(例えば)、認識のための視覚的コンテキストの言語情報を使用するように誘導する。
閉塞、騒音など)。
言語情報は、余分な言語モデルを必要としない視覚的特徴とともに獲得されるため、VisionLANは39%のスピード向上を実現し、正確な認識のための視覚的特徴を高めるために言語情報を適応的に考慮する。
さらにオクルージョンシーンテキスト(ost)データセットを提案し,文字方向の視覚手がかりが欠落した場合の性能評価を行った。
いくつかのベンチマークにおける最先端の結果は、我々の効果を証明している。
コードとデータセットはhttps://github.com/wangyuxin87/VisionLANで入手できる。 In this paper, we abandon the dominant complex language model and rethink the linguistic learning process in the scene text recognition. Different from previous methods considering the visual and linguistic information in two separate structures, we propose a Visual Language Modeling Network (VisionLAN), which views the visual and linguistic information as a union by directly enduing the vision model with language capability. Specially, we introduce the text recognition of character-wise occluded feature maps in the training stage. Such operation guides the vision model to use not only the visual texture of characters, but also the linguistic information in visual context for recognition when the visual cues are confused (e.g. occlusion, noise, etc.). As the linguistic information is acquired along with visual features without the need of extra language model, VisionLAN significantly improves the speed by 39% and adaptively considers the linguistic information to enhance the visual features for accurate recognition. Furthermore, an Occlusion Scene Text (OST) dataset is proposed to evaluate the performance on the case of missing character-wise visual cues. The state of-the-art results on several benchmarks prove our effectiveness. Code and dataset are available at https://github.com/wangyuxin87/VisionLAN. | 翻訳日:2021-08-24 15:46:01 公開日:2021-08-22 |
# ファウショット分類のための関係埋め込み Relational Embedding for Few-Shot Classification ( http://arxiv.org/abs/2108.09666v1 ) ライセンス: Link先を確認 | Dahyun Kang, Heeseung Kwon, Juhong Min, Minsu Cho | (参考訳) 本研究では,「観察すべきこと」と「出席すべき場所」を関係論的に学習することで,マイショット分類の問題に対処する。
本手法は,自己相関表現(SCR)と相互相関注意(CCA)を用いて,画像内および画像間の関係パターンを利用する。
各画像内で、scrモジュールは基本特徴マップを自己相関テンソルに変換し、テンソルから構造パターンを抽出することを学ぶ。
画像間では、CAAモジュールは2つの画像表現間の相互相関を計算し、それらの間のコアテンションを生成することを学習する。
我々のRelational Embedding Network (RENet)は2つのリレーショナルモジュールを組み合わせて、エンドツーエンドでリレーショナル埋め込みを学ぶ。
実験評価では, miniImageNet, tieredImageNet, CUB-200-2011, CIFAR-FS の4つの多用された少ショット分類ベンチマークにおいて, 最先端の手法に対する一貫した改善を実現している。 We propose to address the problem of few-shot classification by meta-learning "what to observe" and "where to attend" in a relational perspective. Our method leverages relational patterns within and between images via self-correlational representation (SCR) and cross-correlational attention (CCA). Within each image, the SCR module transforms a base feature map into a self-correlation tensor and learns to extract structural patterns from the tensor. Between the images, the CCA module computes cross-correlation between two image representations and learns to produce co-attention between them. Our Relational Embedding Network (RENet) combines the two relational modules to learn relational embedding in an end-to-end manner. In experimental evaluation, it achieves consistent improvements over state-of-the-art methods on four widely used few-shot classification benchmarks of miniImageNet, tieredImageNet, CUB-200-2011, and CIFAR-FS. | 翻訳日:2021-08-24 15:45:41 公開日:2021-08-22 |
# 視覚関係の学習:悪魔は尻尾にいる Learning of Visual Relations: The Devil is in the Tails ( http://arxiv.org/abs/2108.09668v1 ) ライセンス: Link先を確認 | Alakh Desai, Tz-Ying Wu, Subarna Tripathi, Nuno Vasconcelos | (参考訳) 近年,視覚関係のモデル化に多大な努力が払われている。
これは主にアーキテクチャの設計に対処し、通常はパラメータを追加し、モデルの複雑さを増大させる。
しかし、視覚的関係学習は、物体群に関する共同推論の組合せの性質のため、長い問題である。
モデル複雑性の増大は、一般的に、過度に適合する傾向にあるため、長い尾の問題に不適である。
本稿では,悪魔は尻尾にあるという仮説を探究する。
この仮説の下では、モデルをシンプルに保ちながら、長い尾の分布に対処する能力を向上させることで、より良い性能が得られる。
この仮説を検証するために,最先端の長期認識文学に触発された視覚関係モデルの学習手法を考案した。
これは反復的に分離されたトレーニングスキームに基づいており、"Decoupled Training for Devil in the Tails"(DT2)と呼ばれている。
DT2は新しいサンプリング手法であるAlternating Class-Balanced Sampling (ACBS)を採用し、長い尾を持つ実体と視覚関係の述語分布の間の相互作用を捉える。
その結果、DT2-ACBSは極めて単純なアーキテクチャで、シーングラフ生成タスクにおいて、より複雑な最先端メソッドよりもはるかに優れていた。
これは、洗練されたモデルの開発は、問題の長い尾の性質と一致して考える必要があることを示唆している。 Significant effort has been recently devoted to modeling visual relations. This has mostly addressed the design of architectures, typically by adding parameters and increasing model complexity. However, visual relation learning is a long-tailed problem, due to the combinatorial nature of joint reasoning about groups of objects. Increasing model complexity is, in general, ill-suited for long-tailed problems due to their tendency to overfit. In this paper, we explore an alternative hypothesis, denoted the Devil is in the Tails. Under this hypothesis, better performance is achieved by keeping the model simple but improving its ability to cope with long-tailed distributions. To test this hypothesis, we devise a new approach for training visual relationships models, which is inspired by state-of-the-art long-tailed recognition literature. This is based on an iterative decoupled training scheme, denoted Decoupled Training for Devil in the Tails (DT2). DT2 employs a novel sampling approach, Alternating Class-Balanced Sampling (ACBS), to capture the interplay between the long-tailed entity and predicate distributions of visual relations. Results show that, with an extremely simple architecture, DT2-ACBS significantly outperforms much more complex state-of-the-art methods on scene graph generation tasks. This suggests that the development of sophisticated models must be considered in tandem with the long-tailed nature of the problem. | 翻訳日:2021-08-24 15:45:21 公開日:2021-08-22 |
# 教師なしドメイン適応オブジェクト再識別のための不確実性認識クラスタリング Uncertainty-aware Clustering for Unsupervised Domain Adaptive Object Re-identification ( http://arxiv.org/abs/2108.09682v1 ) ライセンス: Link先を確認 | Pengfei Wang, Changxing Ding, Wentao Tan, Mingming Gong, Kui Jia, Dacheng Tao | (参考訳) Unsupervised Domain Adaptive (UDA)オブジェクトの再識別(Re-ID)は、ラベル付きソースドメインでトレーニングされたモデルをラベル付きターゲットドメインに適応させることを目的としている。
最先端のオブジェクトRe-IDアプローチでは、クラスタリングアルゴリズムを採用して、ラベルのないターゲットドメインの擬似ラベルを生成する。
しかし,クラスタリング手法によって生じる不可避なラベルノイズは,re-idモデルの識別能力を大幅に低下させる。
この問題に対処するため,UDAタスクのための不確実性対応クラスタリングフレームワーク(UCF)を提案する。
まず,クラスタリング品質向上のために,新しい階層クラスタリング方式を提案する。
次に,モデル学習のための信頼できるラベル付き画像を選択するために,不確実性を考慮した協調インスタンス選択法を提案する。
両方のテクニックを組み合わせることで、ノイズラベルの影響を効果的に低減できる。
さらに,コンパクトなコントラスト損失を特徴とする強固なベースラインを導入する。
提案手法は,オブジェクトRe-IDのための複数のUDAタスクにおける最先端性能を一貫して達成し,教師なしと教師なしのRe-ID性能のギャップを著しく低減する。
特に,MSMT17$\to$Market1501 タスクにおける教師なし UCF メソッドの性能は Market1501 の教師なし設定よりも優れている。
UCFのコードはhttps://github.com/Wang-pengfei/UCFで公開されている。 Unsupervised Domain Adaptive (UDA) object re-identification (Re-ID) aims at adapting a model trained on a labeled source domain to an unlabeled target domain. State-of-the-art object Re-ID approaches adopt clustering algorithms to generate pseudo-labels for the unlabeled target domain. However, the inevitable label noise caused by the clustering procedure significantly degrades the discriminative power of Re-ID model. To address this problem, we propose an uncertainty-aware clustering framework (UCF) for UDA tasks. First, a novel hierarchical clustering scheme is proposed to promote clustering quality. Second, an uncertainty-aware collaborative instance selection method is introduced to select images with reliable labels for model training. Combining both techniques effectively reduces the impact of noisy labels. In addition, we introduce a strong baseline that features a compact contrastive loss. Our UCF method consistently achieves state-of-the-art performance in multiple UDA tasks for object Re-ID, and significantly reduces the gap between unsupervised and supervised Re-ID performance. In particular, the performance of our unsupervised UCF method in the MSMT17$\to$Market1501 task is better than that of the fully supervised setting on Market1501. The code of UCF is available at https://github.com/Wang-pengfei/UCF. | 翻訳日:2021-08-24 15:44:58 公開日:2021-08-22 |
# 変圧器型検出ヘッドにおけるクエリ位置の誘導と類似の注意 Guiding Query Position and Performing Similar Attention for Transformer-Based Detection Heads ( http://arxiv.org/abs/2108.09691v1 ) ライセンス: Link先を確認 | Xiaohu Jiang and Ze Chen and Zhicheng Wang and Erjin Zhou and ChunYuan | (参考訳) DETRが提案された後、オブジェクトクエリと予測のための特徴マップ間のいくつかの交差アテンションを実行するトランスフォーマーベースの検出パラダイムが、その後、一連のトランスフォーマーベースの検出ヘッドを導出した。
これらのモデルは、各クロスアテンション後にオブジェクトクエリを繰り返す。
しかし、オブジェクトクエリの位置情報を示すクエリ位置を更新しません。
したがってモデルには、クエリ位置が表現すべき最新の領域を見つけ出し、さらに注意する必要がある。
この問題を解決するために,オブジェクトクエリの最新の位置情報を反復的にクエリ位置に埋め込むgqpos(guided query position)手法を提案する。
このようなトランスを用いた検出ヘッドのもう一つの問題は、マルチスケールの特徴マップに注意を向ける複雑さが高く、あらゆるスケールでの検知性能の向上を妨げる。
そこで本研究では,特徴写像の融合に加えて,注目重みマップを融合させて高分解能注目重みマップの学習を促進させる,SiAという新たな融合方式を提案する。
実験の結果,提案したGQPosは,DETR,SMCA,YoloS,HoiTransformerなどの一連のモデルの性能を向上し,SiAはDETRやHoiTransformerなどのマルチスケールトランスフォーマーベース検出ヘッドの性能を一貫して向上することがわかった。 After DETR was proposed, this novel transformer-based detection paradigm which performs several cross-attentions between object queries and feature maps for predictions has subsequently derived a series of transformer-based detection heads. These models iterate object queries after each cross-attention. However, they don't renew the query position which indicates object queries' position information. Thus model needs extra learning to figure out the newest regions that query position should express and need more attention. To fix this issue, we propose the Guided Query Position (GQPos) method to embed the latest location information of object queries to query position iteratively. Another problem of such transformer-based detection heads is the high complexity to perform attention on multi-scale feature maps, which hinders them from improving detection performance at all scales. Therefore we propose a novel fusion scheme named Similar Attention (SiA): besides the feature maps is fused, SiA also fuse the attention weights maps to accelerate the learning of high-resolution attention weight map by well-learned low-resolution attention weight map. Our experiments show that the proposed GQPos improves the performance of a series of models, including DETR, SMCA, YoloS, and HoiTransformer and SiA consistently improve the performance of multi-scale transformer-based detection heads like DETR and HoiTransformer. | 翻訳日:2021-08-24 15:44:38 公開日:2021-08-22 |
# Robustness-via-synthesis: 対向摂動を用いたロバストトレーニング Robustness-via-Synthesis: Robust Training with Generative Adversarial Perturbations ( http://arxiv.org/abs/2108.09713v1 ) ライセンス: Link先を確認 | Inci M. Baytas and Debayan Deb | (参考訳) 敵対的攻撃が発見されると、堅牢なモデルはディープラーニングベースのシステムに義務付けられている。
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
敵対的トレーニングのアプローチの大半は、入力画像に対する損失関数の勾配で各ピクセルを反復的に摂動することに焦点を当てている。
しかし、勾配に基づく攻撃を伴う敵対的な訓練は多様性を欠き、自然画像や様々な攻撃に対して十分に一般化していない。
本研究では,生成ネットワークを用いてランダムベクトルから逆摂動を自動的に合成するロバストなトレーニングアルゴリズムを提案する。
この分類器は、自然対向サンプルと合成対向サンプルとの最適な輸送距離で規則化されたクロスエントロピー損失で訓練される。
一般的な生成防御とは異なり、提案したワンステップ攻撃生成フレームワークは、分類器の損失の勾配を使わずに多様な摂動を合成する。
実験の結果,提案手法はCIFAR10, CIFAR100, SVHNデータセット上での様々な勾配に基づく, 生成的ロバストトレーニング手法と同等のロバスト性が得られることがわかった。
さらに、ベースラインと比較して、提案するロバストトレーニングフレームワークは、自然サンプルにうまく一般化する。
コードとトレーニングされたモデルは公開されます。 Upon the discovery of adversarial attacks, robust models have become obligatory for deep learning-based systems. Adversarial training with first-order attacks has been one of the most effective defenses against adversarial perturbations to this day. The majority of the adversarial training approaches focus on iteratively perturbing each pixel with the gradient of the loss function with respect to the input image. However, the adversarial training with gradient-based attacks lacks diversity and does not generalize well to natural images and various attacks. This study presents a robust training algorithm where the adversarial perturbations are automatically synthesized from a random vector using a generator network. The classifier is trained with cross-entropy loss regularized with the optimal transport distance between the representations of the natural and synthesized adversarial samples. Unlike prevailing generative defenses, the proposed one-step attack generation framework synthesizes diverse perturbations without utilizing gradient of the classifier's loss. Experimental results show that the proposed approach attains comparable robustness with various gradient-based and generative robust training techniques on CIFAR10, CIFAR100, and SVHN datasets. In addition, compared to the baselines, the proposed robust training framework generalizes well to the natural samples. Code and trained models will be made publicly available. | 翻訳日:2021-08-24 15:44:13 公開日:2021-08-22 |
# Graph2Pix: グラフベースの画像変換フレームワーク Graph2Pix: A Graph-Based Image to Image Translation Framework ( http://arxiv.org/abs/2108.09752v1 ) ライセンス: Link先を確認 | Dilara Gokay, Enis Simsar, Efehan Atici, Alper Ahmetoglu, Atif Emre Yuksel, Pinar Yanardag | (参考訳) 本稿では,画像生成のためのグラフベース画像変換フレームワークを提案する。
私たちは人気のあるクリエイティビティプラットフォームであるartbreeder(http://artbreeder.com)から収集されたリッチなデータを使用します。
新しい画像を作成するこのユニークなアプローチは、特定の画像の作成に関する履歴データを追跡する木のような構造につながる。
この構造に着想を得て、グラフと対応する画像を入力として取り出し、出力として単一の画像を生成する、Graph2Pixと呼ばれる新しいグラフから画像への変換モデルを提案する。
実験の結果, LPIPS (25%改善) や人間の知覚研究 (n=60) など, ベンチマーク指標を用いた画像から画像への変換フレームワークでは, ユーザが81.5%の時間で生成した画像が好まれることがわかった。
ソースコードとデータセットはhttps://github.com/catlab-team/graph2pixで公開されている。 In this paper, we propose a graph-based image-to-image translation framework for generating images. We use rich data collected from the popular creativity platform Artbreeder (http://artbreeder.com), where users interpolate multiple GAN-generated images to create artworks. This unique approach of creating new images leads to a tree-like structure where one can track historical data about the creation of a particular image. Inspired by this structure, we propose a novel graph-to-image translation model called Graph2Pix, which takes a graph and corresponding images as input and generates a single image as output. Our experiments show that Graph2Pix is able to outperform several image-to-image translation frameworks on benchmark metrics, including LPIPS (with a 25% improvement) and human perception studies (n=60), where users preferred the images generated by our method 81.5% of the time. Our source code and dataset are publicly available at https://github.com/catlab-team/graph2pix. | 翻訳日:2021-08-24 15:43:56 公開日:2021-08-22 |
# 条件付きテクスチャと構造双対生成による画像塗布 Image Inpainting via Conditional Texture and Structure Dual Generation ( http://arxiv.org/abs/2108.09760v1 ) ライセンス: Link先を確認 | Xiefan Guo, Hongyu Yang, Di Huang | (参考訳) 深部生成的アプローチは、最近、構造先行の導入により、画像の塗布にかなりの進歩をもたらした。
しかし, 構造復元時のテクスチャとの適切な相互作用の欠如により, 現状の解決法では汚損事例の取り扱いに不適性があり, 一般に歪んだ結果に苦しむ。
本稿では, 構造制約によるテクスチャ合成とテクスチャ誘導による構造再構成を結合的にモデル化し, より高信頼な生成のために相互に有効に活用する, 画像塗布用2ストリームネットワークを提案する。
さらに、グローバル一貫性を高めるために、構造とテクスチャ情報を交換・結合する双方向のgated feature fusion(bi-gff)モジュールと、生成されたコンテンツを地域親和性学習とマルチスケール特徴集約によって洗練するcontextual feature aggregation(cfa)モジュールが開発されている。
celeba, paris streetviewおよびplaces2データセットの質的および定量的実験は,提案手法の優越性を示している。
私たちのコードはhttps://github.com/Xiefan-Guo/CTSDG.comで公開されています。 Deep generative approaches have recently made considerable progress in image inpainting by introducing structure priors. Due to the lack of proper interaction with image texture during structure reconstruction, however, current solutions are incompetent in handling the cases with large corruptions, and they generally suffer from distorted results. In this paper, we propose a novel two-stream network for image inpainting, which models the structure-constrained texture synthesis and texture-guided structure reconstruction in a coupled manner so that they better leverage each other for more plausible generation. Furthermore, to enhance the global consistency, a Bi-directional Gated Feature Fusion (Bi-GFF) module is designed to exchange and combine the structure and texture information and a Contextual Feature Aggregation (CFA) module is developed to refine the generated contents by region affinity learning and multi-scale feature aggregation. Qualitative and quantitative experiments on the CelebA, Paris StreetView and Places2 datasets demonstrate the superiority of the proposed method. Our code is available at https://github.com/Xiefan-Guo/CTSDG. | 翻訳日:2021-08-24 15:43:38 公開日:2021-08-22 |
# MobileStereoNet: ステレオマッチングのための軽量ディープネットワークを目指して MobileStereoNet: Towards Lightweight Deep Networks for Stereo Matching ( http://arxiv.org/abs/2108.09770v1 ) ライセンス: Link先を確認 | Faranak Shamsafar, Samuel Woerz, Rafia Rahim, Andreas Zell | (参考訳) 近年のステレオマッチング手法は深部モデルを用いて精度を継続的に改善している。
しかし、この利益は、ネットワークが適度なGPUにも収まらないように、高い計算コストで達成されている。
この問題は、モデルがリソース制限されたデバイスにデプロイされる必要がある場合に問題を引き起こす。
そこで本研究では,複雑さを低減し,精度を犠牲にすることなく,ステレオビジョンのための2つの軽量モデルを提案する。
コストボリュームの次元に応じて、2dと3dの畳み込みで構成されたエンコーダデコーダを備えた2dモデルと3dモデルを設計する。
この目的のために、2D MobileNetブロックを活用し、ステレオビジョンアプリケーションのためにそれを3Dに拡張する。
さらに,2次元モデルの精度を高めるために新たなコストボリュームを提案し,3次元ネットワークに近い性能を実現した。
実験の結果,提案した2D/3Dネットワークは,精度を保ちながら,計算コスト(27%/95%,72%/38%)を効果的に削減できることがわかった。
私たちのコードはhttps://github.com/cogsys-tuebingen/mobilestereonetで利用可能です。 Recent methods in stereo matching have continuously improved the accuracy using deep models. This gain, however, is attained with a high increase in computation cost, such that the network may not fit even on a moderate GPU. This issue raises problems when the model needs to be deployed on resource-limited devices. For this, we propose two light models for stereo vision with reduced complexity and without sacrificing accuracy. Depending on the dimension of cost volume, we design a 2D and a 3D model with encoder-decoders built from 2D and 3D convolutions, respectively. To this end, we leverage 2D MobileNet blocks and extend them to 3D for stereo vision application. Besides, a new cost volume is proposed to boost the accuracy of the 2D model, making it performing close to 3D networks. Experiments show that the proposed 2D/3D networks effectively reduce the computational expense (27%/95% and 72%/38% fewer parameters/operations in 2D and 3D models, respectively) while upholding the accuracy. Our code is available at https://github.com/cogsys-tuebingen/mobilestereonet. | 翻訳日:2021-08-24 15:43:19 公開日:2021-08-22 |
# クラスタリングのための距離分布の活用 The Exploitation of Distance Distributions for Clustering ( http://arxiv.org/abs/2108.09649v1 ) ライセンス: Link先を確認 | Michael C. Thrun | (参考訳) 距離測度は多くの機械学習アルゴリズムで使われているが、先行知識を用いた場合、文脈に依存しない距離測度の選択と評価に関する文献は限られている。
クラスタ分析では, 誤差確率に基づいて教師なし手法を適用し, 予め定義されたデータの分割を再現するという目標を暗黙的に設定し, 距離測定の選択を評価する。
このような研究は、しばしばデータの文脈に基づくデータのクラスターと、特定の研究のカスタム目標を使用する。
データコンテキストにより、距離分布の異なる特性が適切な距離選択に関係していると判断される。
しかし、クラスタ分析が類似したデータのパーティションを見つけるタスクに基づいている場合、パーティション内距離はインターパーティション間距離よりも小さくなければならない。
ミラード密度プロットによる分布解析を用いて,この仕様を体系的に検討することにより,クラスタ分析においてマルチモーダル距離分布が好ましいことを示した。
その結果, 教師なし手法の評価に先立ち, ガウス混合系の距離分布をモデル化することが有利である。
クラスタリングタスクのために、いくつかの人工データセットと自然データセットで実験を行う。 Although distance measures are used in many machine learning algorithms, the literature on the context-independent selection and evaluation of distance measures is limited in the sense that prior knowledge is used. In cluster analysis, current studies evaluate the choice of distance measure after applying unsupervised methods based on error probabilities, implicitly setting the goal of reproducing predefined partitions in data. Such studies use clusters of data that are often based on the context of the data as well as the custom goal of the specific study. Depending on the data context, different properties for distance distributions are judged to be relevant for appropriate distance selection. However, if cluster analysis is based on the task of finding similar partitions of data, then the intrapartition distances should be smaller than the interpartition distances. By systematically investigating this specification using distribution analysis through a mirrored-density plot, it is shown that multimodal distance distributions are preferable in cluster analysis. As a consequence, it is advantageous to model distance distributions with Gaussian mixtures prior to the evaluation phase of unsupervised methods. Experiments are performed on several artificial datasets and natural datasets for the task of clustering. | 翻訳日:2021-08-24 15:37:49 公開日:2021-08-22 |
# テンソル因子化による時間ネットワーク埋め込み Temporal Network Embedding via Tensor Factorization ( http://arxiv.org/abs/2108.09837v1 ) ライセンス: Link先を確認 | Jing Ma, Qiuchen Zhang, Jian Lou, Li Xiong, Joyce C. Ho | (参考訳) 静的グラフ構造化データでの表現学習は多くの実世界のアプリケーションに大きな影響を与えている。
しかし、時間とともにエッジが頻繁に変化する時間的ネットワークの進化にはあまり注意が払われていない。
このような時間的ネットワークの埋め込みは、グラフ構造情報と時間的発展パターンの両方をエンコードすべきである。
時間的発展するネットワーク表現を学ぶ既存のアプローチは、時間的相互依存を捉えることができない。
本稿ではテンソル分解に基づく時間的ネットワーク表現学習のための新しいアプローチであるToffeeを提案する。
本手法はテンソルテンソル-テンソル積演算子を利用してクロスタイム情報を符号化し,進化するネットワークの周期的変化をキャプチャする。
実験の結果,toffeeはリンク予測タスクに有効な組込みを生成する際に,複数の実世界の時間的ネットワーク上の既存手法よりも優れていることがわかった。 Representation learning on static graph-structured data has shown a significant impact on many real-world applications. However, less attention has been paid to the evolving nature of temporal networks, in which the edges are often changing over time. The embeddings of such temporal networks should encode both graph-structured information and the temporally evolving pattern. Existing approaches in learning temporally evolving network representations fail to capture the temporal interdependence. In this paper, we propose Toffee, a novel approach for temporal network representation learning based on tensor decomposition. Our method exploits the tensor-tensor product operator to encode the cross-time information, so that the periodic changes in the evolving networks can be captured. Experimental results demonstrate that Toffee outperforms existing methods on multiple real-world temporal networks in generating effective embeddings for the link prediction tasks. | 翻訳日:2021-08-24 15:37:32 公開日:2021-08-22 |
# 実, 合成, 拡張火力試験によるrc柱の耐火性およびスポーリング予測のための説明可能な機械学習 Explainable Machine Learning using Real, Synthetic and Augmented Fire Tests to Predict Fire Resistance and Spalling of RC Columns ( http://arxiv.org/abs/2108.09862v1 ) ライセンス: Link先を確認 | M.Z. Naser, V.K. Kodur | (参考訳) 本稿では, 鉄筋コンクリート(rc)柱の耐火性および耐火性評価のための系統的機械学習(ml)手法の開発について述べる。
開発されたアプローチは、3つの新しいMLアルゴリズム、すなわちランダム・フォレスト(RF)、極端な勾配向上木(ExGBT)、ディープラーニング(DL)のアンサンブルから構成される。
これらのアルゴリズムは、幾何特性と材料特性の広範囲な収集、および494以上の観測結果からなる総合的な火災試験データベースを解析することにより、正常および高強度RC柱の火災性能を調べるための負荷条件を考慮に入れた。
開発されたアンサンブルは、定量的な洞察をML予測に提示することも可能で、"ブラックボックス"MLの概念から脱却し、透明で説明可能なMLへの確かなステップを確立することができる。
最も重要なことは、この研究が利用可能な火災試験の不足に対処し、実物、合成、拡張された火災試験の観測を活用できる新しい技術を提案することである。
開発されたMLアンサンブルは、標準および設計の火災露光と、1、2、3、4面の火災露光のために校正され、検証されている。
完全にデプロイされた場合、開発されたアンサンブルは60秒未満で5,000以上のrc柱を解析できるため、研究者や実践者にとって魅力的なソリューションとなる。
提案手法は, 他の構造部材の耐火性評価やスポーリング, 各種の火災シナリオおよび載荷条件下での簡易な拡張も可能であり, この研究領域の近代化と実践の道筋をたどることができる。 This paper presents the development of systematic machine learning (ML) approach to enable explainable and rapid assessment of fire resistance and fire-induced spalling of reinforced concrete (RC) columns. The developed approach comprises of an ensemble of three novel ML algorithms namely; random forest (RF), extreme gradient boosted trees (ExGBT), and deep learning (DL). These algorithms are trained to account for a wide collection of geometric characteristics and material properties, as well as loading conditions to examine fire performance of normal and high strength RC columns by analyzing a comprehensive database of fire tests comprising of over 494 observations. The developed ensemble is also capable of presenting quantifiable insights to ML predictions; thus, breaking free from the notion of 'blackbox' ML and establishing a solid step towards transparent and explainable ML. Most importantly, this work tackles the scarcity of available fire tests by proposing new techniques to leverage the use of real, synthetic and augmented fire test observations. The developed ML ensemble has been calibrated and validated for standard and design fire exposures and for one, two, three and four-sided fire exposures thus; covering a wide range of practical scenarios present during fire incidents. When fully deployed, the developed ensemble can analyze over 5,000 RC columns in under 60 seconds thus, providing an attractive solution for researchers and practitioners. The presented approach can also be easily extended for evaluating fire resistance and spalling of other structural members and under varying fire scenarios and loading conditions and hence paves the way to modernize the state of this research area and practice. | 翻訳日:2021-08-24 15:37:20 公開日:2021-08-22 |
# Apache Submarine - シンプルな統合機械学習プラットフォーム Apache Submarine: A Unified Machine Learning Platform Made Simple ( http://arxiv.org/abs/2108.09615v1 ) ライセンス: Link先を確認 | Kai-Hsun Chen, Huan-Ping Su, Wei-Chiu Chuang, Hung-Chang Hsiao, Wangda Tan, Zhankun Tang, Xun Liu, Yanbo Liang, Wen-Chih Lo, Wanqiang Ji, Byron Hsu, Keqiu Hu, HuiYang Jian, Quan Zhou, Chien-Min Wang | (参考訳) 機械学習がより広く適用されているため、インフラストラクチャ管理者と、専門家データサイエンティストや市民データサイエンティストを含むユーザの両方が生産性を向上させるために、マシンラーニングプラットフォームを用意する必要がある。
しかし、既存の機械学習プラットフォームは、接着剤コード、再現性、ポータビリティといった"Machine Learning Tech debts"に対処できない。
さらに、既存のプラットフォームは専門家データサイエンティストのみを考慮に入れており、インフラストラクチャ管理者や市民データサイエンティストには非ユーザフレンドリーである。
課題に対処するために、統合機械学習プラットフォームであるSubmarineを提案する。 As machine learning is applied more widely, it is necessary to have a machine learning platform for both infrastructure administrators and users including expert data scientists and citizen data scientists to improve their productivity. However, existing machine learning platforms are ill-equipped to address the "Machine Learning tech debts" such as glue code, reproducibility, and portability. Furthermore, existing platforms only take expert data scientists into consideration, and thus they are inflexible for infrastructure administrators and non-user-friendly for citizen data scientists. We propose Submarine, a unified machine learning platform, to address the challenges. | 翻訳日:2021-08-24 15:34:37 公開日:2021-08-22 |
# 符号付き二部グラフニューラルネットワーク Signed Bipartite Graph Neural Networks ( http://arxiv.org/abs/2108.09638v1 ) ライセンス: Link先を確認 | Junjie Huang, Huawei Shen, Qi Cao, Shuchang Tao, Xueqi Cheng | (参考訳) 署名されたネットワークは、ポジティブリンクとネガティブリンクの両方を持つようなソーシャルネットワークである。
このようなネットワーク(例えばバランス理論)をモデル化するために多くの理論とアルゴリズムが開発されている。
しかし、以前の研究は主にノードが同じタイプを持つ一箇所の署名ネットワークに焦点を当てていた。
符号付き二部ネットワークは、2つの異なるノードセットと2つのノードセット間の符号付きリンクを含む古典的な符号付きネットワークとは異なる。
署名された二部ネットワークは、ビジネス、政治、学術など多くの分野で一般的に見られるが、あまり研究されていない。
本稿では,まず,同一ノードの集合の符号付き関係を定義し,符号付き2部ネットワークの解析のための新しい視点を提供する。
次に、複数の実世界のデータセットの2つの視点からバランス理論の包括的分析を行う。
具体的には, ピアレビューデータセットにおいて, 符号付きバイパートイトネットワークにおける平衡同型比は, 分配相後に増加することがわかった。
これら2つの観点から,符号付き二部グラフニューラルネットワーク(SBGNN)を提案し,符号付き二部グラフネットワークのノード埋め込みを学習する。
SBGNNは、ほとんどのGNNのメッセージパッシング方式に従っているが、新しいメッセージ関数、集約関数、署名された二部ネットワークのための更新関数を設計する。
署名されたネットワークの機械学習タスクであるLink Sign Predictionタスクにおいて,実世界の4つのデータセットに対するモデルの有効性を検証する。
実験の結果,sbgnnモデルは,機能ベース手法やネットワーク組込み手法など,強力なベースライン手法と比較して著しく改善した。 Signed networks are such social networks having both positive and negative links. A lot of theories and algorithms have been developed to model such networks (e.g., balance theory). However, previous work mainly focuses on the unipartite signed networks where the nodes have the same type. Signed bipartite networks are different from classical signed networks, which contain two different node sets and signed links between two node sets. Signed bipartite networks can be commonly found in many fields including business, politics, and academics, but have been less studied. In this work, we firstly define the signed relationship of the same set of nodes and provide a new perspective for analyzing signed bipartite networks. Then we do some comprehensive analysis of balance theory from two perspectives on several real-world datasets. Specifically, in the peer review dataset, we find that the ratio of balanced isomorphism in signed bipartite networks increased after rebuttal phases. Guided by these two perspectives, we propose a novel Signed Bipartite Graph Neural Networks (SBGNNs) to learn node embeddings for signed bipartite networks. SBGNNs follow most GNNs message-passing scheme, but we design new message functions, aggregation functions, and update functions for signed bipartite networks. We validate the effectiveness of our model on four real-world datasets on Link Sign Prediction task, which is the main machine learning task for signed networks. Experimental results show that our SBGNN model achieves significant improvement compared with strong baseline methods, including feature-based methods and network embedding methods. | 翻訳日:2021-08-24 15:34:25 公開日:2021-08-22 |
# DenseTNT:Dense Goal Setからのエンドツーエンドの軌道予測 DenseTNT: End-to-end Trajectory Prediction from Dense Goal Sets ( http://arxiv.org/abs/2108.09640v1 ) ライセンス: Link先を確認 | Junru Gu, Chen Sun, Hang Zhao | (参考訳) 人間の行動の確率性のため、道路エージェントの将来の軌道を予測することは自動運転にとって困難である。
近年,ゴールベース多軌道予測手法が有効であることが証明され,まずオーバーサンプリングされたゴール候補を採点し,最終セットを選択する。
しかし、これらの手法は通常、スパース事前定義されたアンカーとヒューリスティックな目標選択アルゴリズムに基づく目標予測を伴う。
本研究では,高密度な目標候補から直接トラジェクトリを出力する,アンカーフリーかつエンドツーエンドのトラジェクトリ予測モデルDenseTNTを提案する。
さらに,最終的なオンラインモデルにマルチフュージョン擬似ラベルを提供するために,オフライン最適化に基づく手法を導入する。
実験によれば、dungentntはargoverse motion forecasting benchmarkで1位、waymo open dataset motion prediction challenge 2021で1位という最先端のパフォーマンスを達成している。 Due to the stochasticity of human behaviors, predicting the future trajectories of road agents is challenging for autonomous driving. Recently, goal-based multi-trajectory prediction methods are proved to be effective, where they first score over-sampled goal candidates and then select a final set from them. However, these methods usually involve goal predictions based on sparse pre-defined anchors and heuristic goal selection algorithms. In this work, we propose an anchor-free and end-to-end trajectory prediction model, named DenseTNT, that directly outputs a set of trajectories from dense goal candidates. In addition, we introduce an offline optimization-based technique to provide multi-future pseudo-labels for our final online model. Experiments show that DenseTNT achieves state-of-the-art performance, ranking 1st on the Argoverse motion forecasting benchmark and being the 1st place winner of the 2021 Waymo Open Dataset Motion Prediction Challenge. | 翻訳日:2021-08-24 15:31:57 公開日:2021-08-22 |
# 長手X線を用いたCOVID-19の深部生存解析 Deep survival analysis with longitudinal X-rays for COVID-19 ( http://arxiv.org/abs/2108.09641v1 ) ライセンス: Link先を確認 | Michelle Shu, Richard Strong Bowen, Charles Herrmann, Gengmo Qi, Michele Santacatterina, Ramin Zabih | (参考訳) 経時的分析はICUベッドなどの臨床資源を割り当てるための重要な統計ツールである。
しかし、coxモデルのような古典的な技法は、その高次元のために直接イメージを取り込むことができない。
本稿では,複数の時間依存イメージング研究と非画像データを時系列解析に自然に組み込むディープラーニング手法を提案する。
本手法は1,894人の臨床データに基づいてベンチマークを行い,画像のシーケンスが予測を大幅に改善することを示す。
例えば、古典的な時間-イベント法では、病院の入院率を予測するのに約30-40%の一致誤差を生じるが、我々の誤差は画像無しで25%、複数のx線を含む20%である。
アブレーション研究によれば、我々のモデルはスキャナーアーティファクトのようなスプリアスな特徴を学習していない。
私たちの焦点と評価はcovid-19にフォーカスしていますが、私たちの開発手法は広く適用できます。 Time-to-event analysis is an important statistical tool for allocating clinical resources such as ICU beds. However, classical techniques like the Cox model cannot directly incorporate images due to their high dimensionality. We propose a deep learning approach that naturally incorporates multiple, time-dependent imaging studies as well as non-imaging data into time-to-event analysis. Our techniques are benchmarked on a clinical dataset of 1,894 COVID-19 patients, and show that image sequences significantly improve predictions. For example, classical time-to-event methods produce a concordance error of around 30-40% for predicting hospital admission, while our error is 25% without images and 20% with multiple X-rays included. Ablation studies suggest that our models are not learning spurious features such as scanner artifacts. While our focus and evaluation is on COVID-19, the methods we develop are broadly applicable. | 翻訳日:2021-08-24 15:31:42 公開日:2021-08-22 |
# スマートシティの身体的AI駆動操作:簡潔なレビュー Embodied AI-Driven Operation of Smart Cities: A Concise Review ( http://arxiv.org/abs/2108.09823v1 ) ライセンス: Link先を確認 | Farzan Shenavarmasouleh, Farid Ghareh Mohammadi, M. Hadi Amini, Hamid R. Arabnia | (参考訳) スマートシティは、情報通信技術(ICT)で構成されるフレームワークと見なすことができる。
センサーでデータを収集し、クラウド技術を使用してエコシステム内の他の資産と通信する、接続されたデバイスのインテリジェントネットワークは、このフレームワークにおいて重要な役割を果たす。
市民の生活の質を最大化し、資源をより活用し、コストを削減し、持続可能性を改善することが、スマートシティが追求する究極の目標である。
したがって、接続されたデバイスから収集されたデータは、継続的に分析され、市内で提供されているサービスに関するより良い洞察を得ることができます。
ロボットと物理機械はスマートシティの不可分な部分である。
Embodied AIは、これらを深く研究し、現実の環境にどのように適合するかを探求する研究分野である。
静的データセットから学習しようとするインターネットaiとは対照的に、周囲の環境とのインタラクションによる学習に焦点を当てている。
Embodied AIは、コンピュータビジョン(Computer Vision)、トーク(NLP)、ナビゲート(Navigate)、インターアクティベート(Interact)を環境(強化学習(Reinforcement Learning))、推論(Reason)(General Intelligence)と同時に見ることができるエージェントを訓練することを目指している。
自律走行車とパーソナル・コンパニオンは、今ではEmbodied AIの恩恵を受けている。
本稿では,この分野の簡潔な検討を試みる。
私たちは、その定義、その特性、そしてその現在の成果を、異なるアルゴリズム、アプローチ、そしてその様々なコンポーネント(例えば、)で使われているソリューションと共に見ていく。
ビジョン、NLP、RL)。
そして、利用可能なシミュレーターと3D対話可能なデータベースを探索し、この分野の研究を可能とします。
最後に,課題に対処し,今後の研究の可能性を明らかにする。 A smart city can be seen as a framework, comprised of Information and Communication Technologies (ICT). An intelligent network of connected devices that collect data with their sensors and transmit them using cloud technologies in order to communicate with other assets in the ecosystem plays a pivotal role in this framework. Maximizing the quality of life of citizens, making better use of resources, cutting costs, and improving sustainability are the ultimate goals that a smart city is after. Hence, data collected from connected devices will continuously get thoroughly analyzed to gain better insights into the services that are being offered across the city; with this goal in mind that they can be used to make the whole system more efficient. Robots and physical machines are inseparable parts of a smart city. Embodied AI is the field of study that takes a deeper look into these and explores how they can fit into real-world environments. It focuses on learning through interaction with the surrounding environment, as opposed to Internet AI which tries to learn from static datasets. Embodied AI aims to train an agent that can See (Computer Vision), Talk (NLP), Navigate and Interact with its environment (Reinforcement Learning), and Reason (General Intelligence), all at the same time. Autonomous driving cars and personal companions are some of the examples that benefit from Embodied AI nowadays. In this paper, we attempt to do a concise review of this field. We will go through its definitions, its characteristics, and its current achievements along with different algorithms, approaches, and solutions that are being used in different components of it (e.g. Vision, NLP, RL). We will then explore all the available simulators and 3D interactable databases that will make the research in this area feasible. Finally, we will address its challenges and identify its potentials for future research. | 翻訳日:2021-08-24 15:28:13 公開日:2021-08-22 |
# Exam Script 生成のための ExamGAN と Twin-ExamGAN ExamGAN and Twin-ExamGAN for Exam Script Generation ( http://arxiv.org/abs/2108.09656v1 ) ライセンス: Link先を確認 | Zhengyang Wu, Ke Deng, Judy Qiu, Yong Tang | (参考訳) 現在、学習管理システム(LMS)は、初等教育から第三級教育の学生管理、文書化、追跡、報告、教育コースの納入、研修プログラム、学習・開発プログラムなど、様々な教育段階において広く利用されている。
効果的な学習成果評価に向けて,試験台本生成問題が多く注目され,近年研究されている。
しかし、この分野の研究はまだ初期段階にある。
様々な面から、生成した試験用スクリプトの品質をさらに改善する機会がある。
特に2つの重要な問題は、既存のソリューションによって無視されている。
第一に、コースが与えられた場合、クラス(または異なるクラス)における学生スコアの望ましい分布をもたらす試験スクリプトをどうやって生成するかは、まだ不明である。
第二に、実際に頻繁に遭遇するが、評価において同等の高品質な試験スクリプトをどうやって生成するか(すなわち、学生のスコアはどちらかを採って比較する)は今のところ不明である。
このギャップを埋めるために,ExamGAN (Exam Script Generative Adversarial Network) を提案し,その後,ExamGAN を T-ExamGAN (Twin-ExamGAN) に拡張し,高品質なテストスクリプトを生成する。
3つのベンチマークデータセットに関する広範な実験に基づいて、提案手法が最先端に対する様々な面で優れていることを検証した。
さらに本研究は,実教育シナリオにおける提案手法の有効性を実証する事例である。 Nowadays, the learning management system (LMS) has been widely used in different educational stages from primary to tertiary education for student administration, documentation, tracking, reporting, and delivery of educational courses, training programs, or learning and development programs. Towards effective learning outcome assessment, the exam script generation problem has attracted many attentions and been investigated recently. But the research in this field is still in its early stage. There are opportunities to further improve the quality of generated exam scripts in various aspects. In particular, two essential issues have been ignored largely by existing solutions. First, given a course, it is unknown yet how to generate an exam script which can result in a desirable distribution of student scores in a class (or across different classes). Second, while it is frequently encountered in practice, it is unknown so far how to generate a pair of high quality exam scripts which are equivalent in assessment (i.e., the student scores are comparable by taking either of them) but have significantly different sets of questions. To fill the gap, this paper proposes ExamGAN (Exam Script Generative Adversarial Network) to generate high quality exam scripts, and then extends ExamGAN to T-ExamGAN (Twin-ExamGAN) to generate a pair of high quality exam scripts. Based on extensive experiments on three benchmark datasets, it has verified the superiority of proposed solutions in various aspects against the state-of-the-art. Moreover, we have conducted a case study which demonstrated the effectiveness of proposed solution in a real teaching scenario. | 翻訳日:2021-08-24 15:26:30 公開日:2021-08-22 |
# FRUGAL:ソフトウェア分析のためのSSLのアンロック FRUGAL: Unlocking SSL for Software Analytics ( http://arxiv.org/abs/2108.09847v1 ) ライセンス: Link先を確認 | Huy Tu and Tim Menzies | (参考訳) 標準ソフトウェア分析は、しばしば許容可能なパフォーマンスでモデルを割り当てるために、ラベルで大量のデータを取得することを伴う。
しかし、以前の作業では、このような要件は高価であり、数千のコミットをラベル付けるのに数週間かかり、新しい研究問題やドメインを横断するときに常に利用できるとは限らない。
教師なし学習は、欠陥予測において広範に研究されているデータの中で隠れたパターンを学習するための有望な方向である。
それにもかかわらず、教師なし学習はそれ自体では効果がなく、他の領域(例えば静的解析や問題クローズタイム)では探索されていない。
この文学的ギャップと技術的な限界に動機づけられたfrugalは、洗練された(ディープラーナーなど)や高価な(100%手動ラベル付きデータなど)メソッドを必要としない単純な最適化スキーム上に構築された、チューニングされた半教師付きメソッドである。
FRUGALは、教師なし学習者の構成を(単純なグリッドサーチによって)最適化し、予測前のデータの2.5%しかラベル付けしない設計決定を検証します。
この論文の実験で示されているように、FRUGALは最先端の静的コード警告認識器とイシュークローズドタイム予測器より優れており、ラベル付けのコストは40(100%から2.5%)削減されている。
したがって、FRUGALは、特に先行作業の検証や新しい問題の研究において、データラベリングに多大な労力を費やすことができると断言する。
この研究に基づいて, 複雑で高価な手法の支持者は, より単純で安価な代替案に対して, 常にその手法をベースラインとすべきである。
例えば、FRUGALのような半教師付き学習者は、最先端のソフトウェア分析のベースラインとして機能することができる。 Standard software analytics often involves having a large amount of data with labels in order to commission models with acceptable performance. However, prior work has shown that such requirements can be expensive, taking several weeks to label thousands of commits, and not always available when traversing new research problems and domains. Unsupervised Learning is a promising direction to learn hidden patterns within unlabelled data, which has only been extensively studied in defect prediction. Nevertheless, unsupervised learning can be ineffective by itself and has not been explored in other domains (e.g., static analysis and issue close time). Motivated by this literature gap and technical limitations, we present FRUGAL, a tuned semi-supervised method that builds on a simple optimization scheme that does not require sophisticated (e.g., deep learners) and expensive (e.g., 100% manually labelled data) methods. FRUGAL optimizes the unsupervised learner's configurations (via a simple grid search) while validating our design decision of labelling just 2.5% of the data before prediction. As shown by the experiments of this paper FRUGAL outperforms the state-of-the-art adoptable static code warning recognizer and issue closed time predictor, while reducing the cost of labelling by a factor of 40 (from 100% to 2.5%). Hence we assert that FRUGAL can save considerable effort in data labelling especially in validating prior work or researching new problems. Based on this work, we suggest that proponents of complex and expensive methods should always baseline such methods against simpler and cheaper alternatives. For instance, a semi-supervised learner like FRUGAL can serve as a baseline to the state-of-the-art software analytics. | 翻訳日:2021-08-24 15:26:04 公開日:2021-08-22 |
# 回折表面を用いた任意線形変換のオールオプティカル合成 All-Optical Synthesis of an Arbitrary Linear Transformation Using Diffractive Surfaces ( http://arxiv.org/abs/2108.09833v1 ) ライセンス: Link先を確認 | Onur Kulce, Deniz Mengu, Yair Rivenson, Aydogan Ozcan | (参考訳) 入力(N_i)と出力(N_o)の間の任意の複素値線形変換を全光学的に行うための回折曲面の設計を報告する。
まず, 単一回折面を考え, 行列擬逆法を用いて回折特徴量/ニューロンの複素値伝達係数を判定し, 所望/目標線形変換を行う。
このデータフリー設計手法に加えて,対象変換に対応する入出力フィールドの例を用いて,回折表面の伝達係数を最適化する深層学習に基づく設計手法も検討する。
我々は、データフリーな設計とデータ駆動(深層学習に基づく)の回折設計を用いて達成された全光学変換誤差と回折効率を比較し、(i)ユニタリ、非ユニタリ、非可逆変換、(ii)2次元離散フーリエ変換、(iii)任意の2次元置換演算、および(iv)ハイパスフィルタコヒーレントイメージングを含む任意の複素数値変換を行った。
解析の結果、空間工学的特徴/ニューロンの総数(N)がN_i x N_o以上であれば、どちらの設計手法も目標変換の完全な光学的実装に成功し、無視可能な誤差を達成できることがわかった。
しかし,n<n_i x n_oでは,データフリー設計に比べ,n<n_i x n_oの回折効率が大幅に向上し,全光変換精度が向上した。
これらの結論は一般に、空間工学的な回折曲面を用いる様々な光学プロセッサに適用できる。 We report the design of diffractive surfaces to all-optically perform arbitrary complex-valued linear transformations between an input (N_i) and output (N_o), where N_i and N_o represent the number of pixels at the input and output fields-of-view (FOVs), respectively. First, we consider a single diffractive surface and use a matrix pseudoinverse-based method to determine the complex-valued transmission coefficients of the diffractive features/neurons to all-optically perform a desired/target linear transformation. In addition to this data-free design approach, we also consider a deep learning-based design method to optimize the transmission coefficients of diffractive surfaces by using examples of input/output fields corresponding to the target transformation. We compared the all-optical transformation errors and diffraction efficiencies achieved using data-free designs as well as data-driven (deep learning-based) diffractive designs to all-optically perform (i) arbitrarily-chosen complex-valued transformations including unitary, nonunitary and noninvertible transforms, (ii) 2D discrete Fourier transformation, (iii) arbitrary 2D permutation operations, and (iv) high-pass filtered coherent imaging. Our analyses reveal that if the total number (N) of spatially-engineered diffractive features/neurons is N_i x N_o or larger, both design methods succeed in all-optical implementation of the target transformation, achieving negligible error. However, compared to data-free designs, deep learning-based diffractive designs are found to achieve significantly larger diffraction efficiencies for a given N and their all-optical transformations are more accurate for N < N_i x N_o. These conclusions are generally applicable to various optical processors that employ spatially-engineered diffractive surfaces. | 翻訳日:2021-08-24 15:22:34 公開日:2021-08-22 |
# グラフ畳み込み深層学習による最適化分子構成の同定 Graph-Convolutional Deep Learning to Identify Optimized Molecular Configurations ( http://arxiv.org/abs/2108.09637v1 ) ライセンス: Link先を確認 | Eshan Joshi, Samuel Somuyiwa, and Hossein Z. Jooya | (参考訳) 従来の計算手法を用いて分子最適化問題に取り組むことは、最適化された構成の決定がNPハード問題であることが知られているため困難である。
近年,分子最適化タスクのベンチマークに異なるディープラーニング技術を適用することへの関心が高まっている。
本研究では,qm7-xデータセットで提供される平衡および非平衡配置を用いて分子構造を分類するグラフ畳み込み法を実装した。
原子間力はグラフ頂点に符号化され、最適化された構造における原子全体の力の大きさの実質的な抑制がグラフ分類タスクで学習される。
2つの異なるグラフプーリング層を用いて結果を示し,それぞれの性能を比較する。 Tackling molecular optimization problems using conventional computational methods is challenging, because the determination of the optimized configuration is known to be an NP-hard problem. Recently, there has been increasing interest in applying different deep-learning techniques to benchmark molecular optimization tasks. In this work, we implement a graph-convolutional method to classify molecular structures using the equilibrium and non-equilibrium configurations provided in the QM7-X data set. Atomic forces are encoded in graph vertices and the substantial suppression in the total force magnitude on the atoms in the optimized structure is learned for the graph classification task. We demonstrate the results using two different graph pooling layers and compare their respective performances. | 翻訳日:2021-08-24 15:19:55 公開日:2021-08-22 |
# (参考訳) QUEACO:クエリ属性値抽出のための弱ラベル行動データからの宝物検索 QUEACO: Borrowing Treasures from Weakly-labeled Behavior Data for Query Attribute Value Extraction ( http://arxiv.org/abs/2108.08468v2 ) ライセンス: CC0 1.0 | Danqing Zhang, Zheng Li, Tianyu Cao, Chen Luo, Tony Wu, Hanqing Lu, Yiwei Song, Bing Yin, Tuo Zhao, Qiang Yang | (参考訳) ユーザクエリから名前付きエンティティを多種多様な表面的属性値として識別し,その後公式な標準形式に変換するクエリ属性値抽出の問題について検討する。
このような問題は、 {name entity recognition (NER) と {attribute value normalization (AVN) の2つのフェーズから構成される。
しかし、既存の研究はNERフェーズのみに焦点を当て、同様に重要なAVNを無視している。
そこで本稿では,このギャップを埋めるため,eコマース検索におけるクエリ属性値の統一抽出システムqueacoを提案する。
さらに,大規模弱ラベル動作データを活用することで,監視コストを低減し,抽出性能をさらに向上させる。
具体的には、NERフェーズにおいて、QUEACOは、強力なラベル付きデータに基づいてトレーニングされた教師ネットワークが擬似ラベルを生成し、学生ネットワークを訓練するための弱いラベル付きデータを洗練する新しい教師学生ネットワークを採用する。
一方、教師ネットワークは、強ラベルデータに対する生徒の演奏のフィードバックにより動的に適応でき、弱ラベルからノイズの多い監督を最大限に無視することができる。
avnフェーズでは、弱いラベルのクエリから属性への振舞いデータを利用して、クエリから表層フォーム属性値を製品から正準形式に正規化する。
実世界の大規模eコマースデータセットに関する広範な実験は、queacoの有効性を示している。 We study the problem of query attribute value extraction, which aims to identify named entities from user queries as diverse surface form attribute values and afterward transform them into formally canonical forms. Such a problem consists of two phases: {named entity recognition (NER)} and {attribute value normalization (AVN)}. However, existing works only focus on the NER phase but neglect equally important AVN. To bridge this gap, this paper proposes a unified query attribute value extraction system in e-commerce search named QUEACO, which involves both two phases. Moreover, by leveraging large-scale weakly-labeled behavior data, we further improve the extraction performance with less supervision cost. Specifically, for the NER phase, QUEACO adopts a novel teacher-student network, where a teacher network that is trained on the strongly-labeled data generates pseudo-labels to refine the weakly-labeled data for training a student network. Meanwhile, the teacher network can be dynamically adapted by the feedback of the student's performance on strongly-labeled data to maximally denoise the noisy supervisions from the weak labels. For the AVN phase, we also leverage the weakly-labeled query-to-attribute behavior data to normalize surface form attribute values from queries into canonical forms from products. Extensive experiments on a real-world large-scale E-commerce dataset demonstrate the effectiveness of QUEACO. | 翻訳日:2021-08-24 12:52:15 公開日:2021-08-22 |
# (参考訳) フィードフォワードニューラルネットワークを用いた決定式フリーフェルミオン波動関数 Determinant-free fermionic wave function using feed-forward neural networks ( http://arxiv.org/abs/2108.08631v2 ) ライセンス: CC BY 4.0 | Koji Inui, Yasuyuki Kato and Yukitoshi Motome | (参考訳) フィードフォワードニューラルネットワークを用いて多体フェルミオン系の基底状態を求めるための一般的な枠組みを提案する。
フェルミオンの反可換関係は、通常、slater determinant(またはpfaffian)によって変分波動関数に実装される。
このボトルネックを回避し、実空間における粒子交換に伴う符号変化を明示的に計算し、全連結ニューラルネットワークを用いて波動関数の残りの部分の最適化を行う。
これにより計算コストは$O(N^2)$以下になる。
エネルギーの「ばらつき」をエネルギー自体と同時に最適化することにより近似の精度を向上させることができることを示す。
また,モンテカルロサンプリングにおける重み付け手法が計算を安定化できることがわかった。
これらの改良は変分モンテカルロ法に基づく他のアプローチにも適用できる。
さらに,システムの対称性,代表状態,一般化したGitzwiller-Jastrow因子を実装した追加ニューラルネットワークを用いることで,精度をさらに向上できることを示す。
本手法を2次元ハバードモデルに適用し,その効率性を示す。 We propose a general framework for finding the ground state of many-body fermionic systems by using feed-forward neural networks. The anticommutation relation for fermions is usually implemented to a variational wave function by the Slater determinant (or Pfaffian), which is a computational bottleneck because of the numerical cost of $O(N^3)$ for $N$ particles. We bypass this bottleneck by explicitly calculating the sign changes associated with particle exchanges in real space and using fully connected neural networks for optimizing the rest parts of the wave function. This reduces the computational cost to $O(N^2)$ or less. We show that the accuracy of the approximation can be improved by optimizing the "variance" of the energy simultaneously with the energy itself. We also find that a reweighting method in Monte Carlo sampling can stabilize the calculation. These improvements can be applied to other approaches based on variational Monte Carlo methods. Moreover, we show that the accuracy can be further improved by using the symmetry of the system, the representative states, and an additional neural network implementing a generalized Gutzwiller-Jastrow factor. We demonstrate the efficiency of the method by applying it to a two-dimensional Hubbard model. | 翻訳日:2021-08-24 12:11:42 公開日:2021-08-22 |