論文の概要: Contrastive-to-Self-Supervised: A Two-Stage Framework for Script Similarity Learning
- arxiv url: http://arxiv.org/abs/2603.06180v1
- Date: Fri, 06 Mar 2026 11:39:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.57976
- Title: Contrastive-to-Self-Supervised: A Two-Stage Framework for Script Similarity Learning
- Title(参考訳): Contrastive-to-Self-Supervised: スクリプト類似学習のための2段階フレームワーク
- Authors: Claire Roman, Philippe Meyer,
- Abstract要約: 我々は、ラベル付きアルファベットに対して対照的な損失を伴うエンコーダを訓練し、堅牢な差別的特徴を持つ教師を確立する。
教師は教師の知識で指導された教師なしの表現を学習するが、潜伏したクロススクリプトの類似性は見つからない。
我々のアプローチブリッジは対照的な学習と教師なしの発見を監督し、異なるシステム間のハードな境界と、潜在的な歴史的影響を反映したソフトな類似性の両方を可能にします。
- 参考スコア(独自算出の注目度): 0.45835414225547183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning similarity metrics for glyphs and writing systems faces a fundamental challenge: while individual graphemes within invented alphabets can be reliably labeled, the historical relationships between different scripts remain uncertain and contested. We propose a two-stage framework that addresses this epistemological constraint. First, we train an encoder with contrastive loss on labeled invented alphabets, establishing a teacher model with robust discriminative features. Second, we extend to historically attested scripts through teacher-student distillation, where the student learns unsupervised representations guided by the teacher's knowledge but free to discover latent cross-script similarities. The asymmetric setup enables the student to learn deformation-invariant embeddings while inheriting discriminative structure from clean examples. Our approach bridges supervised contrastive learning and unsupervised discovery, enabling both hard boundaries between distinct systems and soft similarities reflecting potential historical influences. Experiments on diverse writing systems demonstrate effective few-shot glyph recognition and meaningful script clustering without requiring ground-truth evolutionary relationships.
- Abstract(参考訳): グリフと書記システムの類似度を学習することは、基本的な課題に直面している:発明されたアルファベットの中の個々のグラフエムを確実にラベル付けできるが、異なるスクリプト間の歴史的関係は不確実であり、議論されている。
この認識論的制約に対処する2段階のフレームワークを提案する。
まず、ラベル付き発明されたアルファベットに対して対照的な損失を伴うエンコーダを訓練し、堅牢な識別特性を持つ教師モデルを確立する。
第2に,教師が教師の知識で指導された教師なしの表現を学習するが,潜伏したクロススクリプトの類似性は見つからない。
非対称な設定により、学生はクリーンな例から識別的構造を継承しながら変形不変な埋め込みを学習することができる。
我々のアプローチブリッジは対照的な学習と教師なしの発見を監督し、異なるシステム間のハードな境界と、潜在的な歴史的影響を反映したソフトな類似性の両方を可能にします。
多様な筆記システムに関する実験は、基礎と真実の進化的関係を必要とせず、効果的な数発のグリフ認識と意味のあるスクリプトクラスタリングを実証している。
関連論文リスト
- Visible Yet Unreadable: A Systematic Blind Spot of Vision Language Models Across Writing Systems [25.47053654117902]
先進視覚言語モデル(VLM)がこのレジリエンスを共有しているかどうかを検討する。
我々は、異なる筆記システムにまたがる2つの心理物理学的なベンチマークを構築した。
クリーンテキスト上での強いパフォーマンスにもかかわらず、現代のVLMはこれらの摂動の下で深刻な低下を見せている。
論文 参考訳(メタデータ) (2025-09-04T05:35:32Z) - Weakly-Supervised Contrastive Learning for Imprecise Class Labels [50.57424331797865]
正対と負対を定義するために「連続的意味的類似性」の概念を導入する。
弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
論文 参考訳(メタデータ) (2025-05-28T06:50:40Z) - Towards Unsupervised Recognition of Token-level Semantic Differences in
Related Documents [61.63208012250885]
意味的差異をトークンレベルの回帰タスクとして認識する。
マスク付き言語モデルに依存する3つの教師なしアプローチについて検討する。
その結果,単語アライメントと文レベルのコントラスト学習に基づくアプローチは,ゴールドラベルと強い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-05-22T17:58:04Z) - CODER: Coupled Diversity-Sensitive Momentum Contrastive Learning for
Image-Text Retrieval [108.48540976175457]
クロスモーダル表現を改善するために,共用ダイバーシティ・センシティブ・モーメント・コンストラシティブ・ラーニング(CODER)を提案する。
両モードの動的辞書を導入し、画像テキストペアのスケールを拡大し、適応的な負のペア重み付けにより多様性に敏感性を実現する。
MSCOCOとFlicker30Kという2つの人気のあるベンチマークで実施された実験は、CODERが最先端のアプローチを著しく上回っていることを証明している。
論文 参考訳(メタデータ) (2022-08-21T08:37:50Z) - Keywords and Instances: A Hierarchical Contrastive Learning Framework Unifying Hybrid Granularities for Text Generation [60.62039705180484]
入力テキスト中のハイブリッドな粒度意味を統一する階層的コントラスト学習機構を提案する。
実験により,本モデルがパラフレージング,対話生成,ストーリーテリングタスクにおいて,競争ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-05-26T13:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。