論文の概要: A Recursive Encoding for Cuneiform Signs
- arxiv url: http://arxiv.org/abs/2406.17283v1
- Date: Tue, 25 Jun 2024 05:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 15:31:28.637764
- Title: A Recursive Encoding for Cuneiform Signs
- Title(参考訳): 偏形符号の帰納的符号化
- Authors: Daniel M. Stelzer,
- Abstract要約: 本稿では,コンピュータが処理可能な方法でストロークの配列を表現した,符号の「再帰的符号化」を提案する。
一連の新しいアルゴリズムは、生徒に特別な部品でサインを探す新しい方法を提供し、サインやタブレットを電子的にレンダリングする新しい方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most significant problems in cuneiform pedagogy is the process of looking up unknown signs, which often involves a tedious page-by-page search through a sign list. This paper proposes a new "recursive encoding" for signs, which represents the arrangement of strokes in a way a computer can process. A series of new algorithms then offers students a new way to look up signs by any distinctive component, as well as providing new ways to render signs and tablets electronically.
- Abstract(参考訳): cuneiform pedagogyの最も大きな問題の1つは、未知のサインを検索するプロセスである。
本稿では,コンピュータが処理可能な方法でストロークの配列を表現した,符号の「再帰的符号化」を提案する。
一連の新しいアルゴリズムは、生徒に特別な部品でサインを探す新しい方法を提供し、サインやタブレットを電子的にレンダリングする新しい方法を提供する。
関連論文リスト
- Modular Graph Extraction for Handwritten Circuit Diagram Images [5.780326596446099]
手描きの回路図は現在も教育分野で使われており、訓練生や学生がこの種の図を描くことを学ぶための容易な手段となっている。
デジタル回路表現の能力を活用するためには、グラフィックから電気グラフを抽出する自動手段が必要である。
本稿では、個別のサブタスクに対するアプローチを評価して新しいベースラインを形成する、大規模でパブリックなデータセット上のモジュラー・エンド・ツー・エンドのソリューションについて述べる。
論文 参考訳(メタデータ) (2024-02-16T21:39:28Z) - Linguistically Motivated Sign Language Segmentation [51.06873383204105]
個々の記号へのセグメンテーションとフレーズへのセグメンテーションという2種類のセグメンテーションを考える。
本手法は手話コーパスで観察される言語的手がかりによって動機付けられている。
私たちは、主要なIOタグ付けスキームをBIOタグに置き換えて、継続的な署名を可能にします。
論文 参考訳(メタデータ) (2023-10-21T10:09:34Z) - CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - MetaPrompting: Learning to Learn Better Prompts [52.914694884515534]
本稿では,メタプロンプトと呼ばれるソフトプロンプト手法を提案する。
大規模な実験は、MetaPromptingが4つの異なるデータセットに大きな改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-23T09:01:05Z) - SimAN: Exploring Self-Supervised Representation Learning of Scene Text
via Similarity-Aware Normalization [66.35116147275568]
自己指導型表現学習は、現場テキスト認識コミュニティからかなりの注目を集めている。
表現学習スキームを生成的手法で定式化することで,この問題に対処する。
そこで我々は,異なるパターンを識別し,対応するスタイルを誘導パッチから整列するSimANモジュールを提案する。
論文 参考訳(メタデータ) (2022-03-20T08:43:10Z) - Towards Open-Set Text Recognition via Label-to-Prototype Learning [18.06730376866086]
モデルを再学習することなく,新しい文字を扱えるラベルとプロトタイプの学習フレームワークを提案する。
多くの実験により,提案手法は様々なゼロショット,クローズセット,オープンセットのテキスト認識データセット上で有望な性能を達成できることが示されている。
論文 参考訳(メタデータ) (2022-03-10T06:22:51Z) - Accelerating Road Sign Ground Truth Construction with Knowledge Graph
and Machine Learning [5.226306460380354]
道路標識の分類を効果的に行うために,知識グラフと機械学習アルゴリズムを用いた新しい手法を提案する。
アノテーションは、視覚属性を使用してRoad Sign Knowledge Graphをクエリし、VPEモデルによって提案される最も近いマッチング候補を受け取ることができる。
知識グラフのアプローチは手話検索スペースを98.9%削減できることを示す。
論文 参考訳(メタデータ) (2020-12-04T15:42:08Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z) - A Few-shot Learning Approach for Historical Ciphered Manuscript
Recognition [3.0682439731292592]
少数ショットオブジェクト検出に基づく手書き音声認識のための新しい手法を提案する。
合成データのトレーニングにより,提案アーキテクチャは未知のアルファベットで手書きの暗号を認識可能であることを示す。
論文 参考訳(メタデータ) (2020-09-26T11:49:18Z) - Separating Content from Style Using Adversarial Learning for Recognizing
Text in the Wild [103.51604161298512]
画像中の複数の文字の生成と認識のための逆学習フレームワークを提案する。
我々のフレームワークは、新しい最先端の認識精度を達成するために、最近の認識手法に統合することができる。
論文 参考訳(メタデータ) (2020-01-13T12:41:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。