論文の概要: Subtle Signs of Scribal Intent in the Voynich Manuscript
- arxiv url: http://arxiv.org/abs/2404.13069v1
- Date: Sun, 14 Apr 2024 14:54:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-28 11:16:37.592013
- Title: Subtle Signs of Scribal Intent in the Voynich Manuscript
- Title(参考訳): ヴォイニッヒ写本におけるスクリバル・インテントの段差記号
- Authors: Andrew Steckley, Noah Steckley,
- Abstract要約: 本研究は,「ヴォイニチェーゼ」文字の見過ごされた特徴に隠された,スクレイブ意図の微妙な兆候を探すことによって,ヴォイニッヒ写本を探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study explores the cryptic Voynich Manuscript, by looking for subtle signs of scribal intent hidden in overlooked features of the "Voynichese" script. The findings indicate that distributions of tokens within paragraphs vary significantly based on positions defined not only by elements intrinsic to the script such as paragraph and line boundaries but also by extrinsic elements, namely the hand-drawn illustrations of plants.
- Abstract(参考訳): 本研究は,「ヴォイニチェーゼ」文字の見過ごされた特徴に隠された,微妙なスクレイブ意図のサインを探すことによって,秘密のヴォイニッヒ写本を探索する。
その結果, トークンの分布は, 段落や線の境界といった文字に固有の要素だけでなく, 植物の手書き図面などの外在的な要素によっても決定される位置によって大きく異なることが示唆された。
関連論文リスト
- Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Enhancing Representation Generalization in Authorship Identification [9.148691357200216]
著者の身元確認は、出自が公表されていないテキストの著者の身元を確認する。
現代の著作者識別法は、著作者スタイルの識別に有効であることが証明されている。
著者識別におけるスタイリスティックな表現の一般化の促進という課題に対処する。
論文 参考訳(メタデータ) (2023-09-30T17:11:00Z) - Distributed Marker Representation for Ambiguous Discourse Markers and
Entangled Relations [50.31129784616845]
我々は、無制限の談話マーカーデータと潜在談話感覚を利用して分散マーカ表現(DMR)を学習する。
提案手法は,対話マーカー間の複雑なあいまいさや絡み合いや,手動で定義した談話関係を理解する上でも有用である。
論文 参考訳(メタデータ) (2023-06-19T00:49:51Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - SPTS: Single-Point Text Spotting [128.52900104146028]
トレーニングシーンのテキストスポッティングモデルは,インスタンスごとの単一点の極めて低コストなアノテーションによって実現可能であることを示す。
本稿では,シーンテキストスポッティングをシーケンス予測タスクとするエンドツーエンドのシーンテキストスポッティング手法を提案する。
論文 参考訳(メタデータ) (2021-12-15T06:44:21Z) - Neural Representation Learning for Scribal Hands of Linear B [23.603494290484086]
本稿では,リニアB書記システムのスクレイバルハンド解析におけるニューラル特徴抽出の利用について検討する。
人間のアノテーションを必要としない、完全に教師なしのニューラルネットワークを用いた学習機能を提案する。
論文 参考訳(メタデータ) (2021-07-14T20:33:59Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z) - A complete character recognition and transliteration technique for
Devanagari script [12.208787849155048]
本稿では,文字認識を用いたデバナガリ文字の自動翻訳手法を提案する。
構成文字を分離するための最初のタスクの1つはセグメンテーションである。
デヴァナガリ文字は対応するローマ字にマッピングされ、その結果のローマ字は原文字と類似の発音を持つ。
論文 参考訳(メタデータ) (2020-09-28T16:43:18Z) - Spectral Graph-based Features for Recognition of Handwritten Characters:
A Case Study on Handwritten Devanagari Numerals [0.0]
本稿では,手書き文字を表現するために,頑健なグラフ表現とスペクトルグラフ埋め込みの概念を利用する手法を提案する。
提案手法の有効性の検証のために,インド統計研究所コルカタデータセットの標準手書き数値視覚パターン認識について広範な実験を行った。
論文 参考訳(メタデータ) (2020-07-07T08:40:08Z) - A Unified Feature Representation for Lexical Connotations [13.153001795077227]
我々は、名詞や形容詞の意味を表す新しい語彙資源を作成するために、遠隔ラベリングを使用する。
我々の分析によると、それは人間の判断とよく一致している。
論文 参考訳(メタデータ) (2020-05-31T23:14:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。