論文の概要: Neural Representation Learning for Scribal Hands of Linear B
- arxiv url: http://arxiv.org/abs/2108.04199v1
- Date: Wed, 14 Jul 2021 20:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-15 11:28:24.548466
- Title: Neural Representation Learning for Scribal Hands of Linear B
- Title(参考訳): 線形bの脚手に対する神経表現学習
- Authors: Nikita Srivatsan, Jason Vega, Christina Skelton, Taylor
Berg-Kirkpatrick
- Abstract要約: 本稿では,リニアB書記システムのスクレイバルハンド解析におけるニューラル特徴抽出の利用について検討する。
人間のアノテーションを必要としない、完全に教師なしのニューラルネットワークを用いた学習機能を提案する。
- 参考スコア(独自算出の注目度): 23.603494290484086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present an investigation into the use of neural feature
extraction in performing scribal hand analysis of the Linear B writing system.
While prior work has demonstrated the usefulness of strategies such as
phylogenetic systematics in tracing Linear B's history, these approaches have
relied on manually extracted features which can be very time consuming to
define by hand. Instead we propose learning features using a fully unsupervised
neural network that does not require any human annotation. Specifically our
model assigns each glyph written by the same scribal hand a shared vector
embedding to represent that author's stylistic patterns, and each glyph
representing the same syllabic sign a shared vector embedding to represent the
identifying shape of that character. Thus the properties of each image in our
dataset are represented as the combination of a scribe embedding and a sign
embedding. We train this model using both a reconstructive loss governed by a
decoder that seeks to reproduce glyphs from their corresponding embeddings, and
a discriminative loss which measures the model's ability to predict whether or
not an embedding corresponds to a given image. Among the key contributions of
this work we (1) present a new dataset of Linear B glyphs, annotated by scribal
hand and sign type, (2) propose a neural model for disentangling properties of
scribal hands from glyph shape, and (3) quantitatively evaluate the learned
embeddings on findplace prediction and similarity to manually extracted
features, showing improvements over simpler baseline methods.
- Abstract(参考訳): 本研究では,リニアB書記システムのスクレイバルハンド解析におけるニューラル特徴抽出の利用について検討する。
以前の研究は、線形bの歴史を追跡する系統分類学のような戦略の有用性を実証してきたが、これらのアプローチは手動で抽出した特徴に依存しており、手動で定義するのに非常に時間がかかる。
代わりに、人間のアノテーションを必要としない完全に教師なしのニューラルネットワークを使った学習機能を提案する。
具体的には,著者のスタイルパターンを表現するために共用ベクター埋め込みと,同音節記号を表す各グリフと,そのキャラクタの識別形状を表す共用ベクター埋め込みを割り当てる。
このように、データセットの各画像の特性は、スクライブ埋め込みとサイン埋め込みの組み合わせとして表現される。
このモデルは,対応する埋め込みからグリフを再現しようとするデコーダが支配する再構成的損失と,埋め込みが与えられた画像に対応するか否かを予測するモデルの能力を測定する識別的損失の両方を用いて訓練する。
本研究の主な貢献の一つとして,(1)スクリブラハンドと手話タイプでアノテートされたリニアbグリフの新たなデータセットを提示し,(2)グリフ形状からスクリブラハンドの特性を分離するニューラルモデルを提案し,(3)手話から抽出された特徴との類似性や類似性に関する学習埋め込みを定量的に評価し,より単純なベースライン手法の改善を示す。
関連論文リスト
- Self-Supervised Representation Learning for Online Handwriting Text
Classification [0.8594140167290099]
本稿では,日本語と中国語の個人によるオンライン筆跡から情報表現を抽出するための事前学習の前提として,新しいストロークマスキング(POSM)を提案する。
抽出した表現の質を評価するために,本質的評価法と外生的評価法の両方を用いる。
事前訓練されたモデルは、作家の識別、性別分類、手書きの分類といったタスクにおいて、最先端の結果を達成するために微調整される。
論文 参考訳(メタデータ) (2023-10-10T14:07:49Z) - A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification [29.075766631810595]
本稿では,テキストのクラスラベルを選挙区木から明示的に予測するシンボリック・ニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、訓練データとして、原文と文レベルのラベルしか必要としない。
実験により,下流タスクにおける予測精度が向上できることが実証された。
論文 参考訳(メタデータ) (2023-03-06T03:25:43Z) - Generative Graph Neural Networks for Link Prediction [13.643916060589463]
欠落したリンクを推測したり、観測されたグラフに基づいて急激なリンクを検出することは、グラフデータ分析における長年の課題である。
本稿では,GraphLPと呼ばれるネットワーク再構成理論に基づく,新しい,根本的に異なるリンク予測アルゴリズムを提案する。
リンク予測に使用される識別ニューラルネットワークモデルとは異なり、GraphLPは生成可能であり、ニューラルネットワークベースのリンク予測の新しいパラダイムを提供する。
論文 参考訳(メタデータ) (2022-12-31T10:07:19Z) - Text Representation Enrichment Utilizing Graph based Approaches: Stock
Market Technical Analysis Case Study [0.0]
本稿では,教師なしノード表現学習モデルとノード分類/エッジ予測モデルを組み合わせたトランスダクティブハイブリッド手法を提案する。
提案手法は,この分野における最初の研究である株式市場の技術分析報告を分類するために開発された。
論文 参考訳(メタデータ) (2022-11-29T11:26:08Z) - Repurposing Knowledge Graph Embeddings for Triple Representation via
Weak Supervision [77.34726150561087]
現在の方法では、事前訓練されたモデルからの実体と述語埋め込みを使わずに、スクラッチから三重埋め込みを学習する。
本研究では,知識グラフからトリプルを自動抽出し,事前学習した埋め込みモデルからそれらのペアの類似性を推定する手法を開発した。
これらのペアの類似度スコアは、細い三重表現のためにシームズ様のニューラルネットワークに供給される。
論文 参考訳(メタデータ) (2022-08-22T14:07:08Z) - Drawing out of Distribution with Neuro-Symbolic Generative Models [49.79371715591122]
ドローイング・アウト・オブ・ディストリクト(英: Drawing out of Distribution)は、ストローク・ベース・ドローイングの神経象徴的生成モデルである。
DooDは画像を直接操作するが、監視や高価なテストタイム推論は必要ない。
我々は、データとタスクをまたいだ一般化能力について、DooDを評価した。
論文 参考訳(メタデータ) (2022-06-03T21:40:22Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - VisGraphNet: a complex network interpretation of convolutional neural
features [6.50413414010073]
ニューラルネットワークの特徴マップをモデル化するための可視性グラフの提案と検討を行う。
この研究は、元のデータよりもこれらのグラフによって提供される別の視点によって動機付けられている。
論文 参考訳(メタデータ) (2021-08-27T20:21:04Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Learning to map source code to software vulnerability using
code-as-a-graph [67.62847721118142]
セキュリティの観点からソースコードのニュアンス学習におけるグラフニューラルネットワークの適用性について検討する。
我々は,既存のコード・アズ・フォトや線形シーケンスの符号化手法よりも,脆弱性検出に有効なコード・アズ・グラフの符号化法を示す。
論文 参考訳(メタデータ) (2020-06-15T16:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。