論文の概要: HyperText: Endowing FastText with Hyperbolic Geometry
- arxiv url: http://arxiv.org/abs/2010.16143v3
- Date: Fri, 17 Dec 2021 06:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:59:31.067382
- Title: HyperText: Endowing FastText with Hyperbolic Geometry
- Title(参考訳): HyperText: Hyperbolic GeometryによるFastTextの活用
- Authors: Yudong Zhu, Di Zhou, Jinghui Xiao, Xin Jiang, Xiao Chen, Qun Liu
- Abstract要約: 我々は,ハイパボリック幾何でFastTextを付与することで,テキストの効率的な分類を行うHyperTextという新しいモデルを提案する。
経験的に、HyperTextはパラメータが大幅に削減されたテキスト分類タスクにおいて、FastTextよりも優れています。
- 参考スコア(独自算出の注目度): 35.066814357504775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language data exhibit tree-like hierarchical structures such as the
hypernym-hyponym relations in WordNet. FastText, as the state-of-the-art text
classifier based on shallow neural network in Euclidean space, may not model
such hierarchies precisely with limited representation capacity. Considering
that hyperbolic space is naturally suitable for modeling tree-like hierarchical
data, we propose a new model named HyperText for efficient text classification
by endowing FastText with hyperbolic geometry. Empirically, we show that
HyperText outperforms FastText on a range of text classification tasks with
much reduced parameters.
- Abstract(参考訳): 自然言語データは、wordnetのhypernym-hyponymリレーションのような木のような階層構造を示す。
ユークリッド空間の浅いニューラルネットワークに基づく最先端のテキスト分類器であるFastTextは、表現能力に制限のある階層を正確にモデル化することができない。
木のような階層データモデリングには自然に双曲空間が適していることを考慮し,高速テキストに双曲幾何学を付与してテキスト分類を行うHyperTextという新しいモデルを提案する。
経験的に、HyperTextはパラメータが大幅に削減されたテキスト分類タスクにおいて、FastTextよりも優れています。
関連論文リスト
- HyperSDFusion: Bridging Hierarchical Structures in Language and Geometry for Enhanced 3D Text2Shape Generation [55.95329424826433]
テキストから3次元形状を生成する2分岐拡散モデルHyperSDFusionを提案する。
双曲空間におけるテキストと3次元形状の階層的表現を学習する。
本手法は,テキスト・ツー・シェイプ生成のための双曲的階層表現を初めて探求する手法である。
論文 参考訳(メタデータ) (2024-03-01T08:57:28Z) - HyperBERT: Mixing Hypergraph-Aware Layers with Language Models for Node Classification on Text-Attributed Hypergraphs [16.07396492960869]
我々はハイパーグラフリレーショナル構造とテキスト分散ハイパーグラフを同時にモデル化する新しいアーキテクチャHyperBERTを提案する。
結果から,HyperBERTは5つの挑戦的テキスト分散ハイパーグラフノード分類ベンチマークに対して,新たな最先端性を達成していることがわかった。
論文 参考訳(メタデータ) (2024-02-11T21:16:26Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - HyperMiner: Topic Taxonomy Mining with Hyperbolic Embedding [54.52651110749165]
本稿では,単語や話題を表現するために,メタボリック埋め込みを導入した新しいフレームワークを提案する。
双曲空間のツリー様性により、下層のセマンティック階層はより解釈可能なトピックをマイニングするためによりうまく利用することができる。
論文 参考訳(メタデータ) (2022-10-16T02:54:17Z) - Cross-lingual Word Embeddings in Hyperbolic Space [31.888489552069146]
言語間単語の埋め込みは、複数の言語にわたる自然言語処理アプリケーションに適用することができる。
本稿では,双曲空間のポアンカー球モデルに適応する,単純かつ効果的な言語間言語Word2Vecモデルを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:15:37Z) - Modelling the semantics of text in complex document layouts using graph
transformer networks [0.0]
本稿では,文書の読取パターンを近似したモデルを提案し,テキストスパン毎にユニークな意味表現を出力する。
アーキテクチャは構造化されたテキストのグラフ表現に基づいており、文書間で意味的に類似した情報を検索できるだけでなく、生成した埋め込み空間が有用な意味情報をキャプチャすることを示す。
論文 参考訳(メタデータ) (2022-02-18T11:49:06Z) - StrokeNet: Stroke Assisted and Hierarchical Graph Reasoning Networks [31.76016966100244]
StrokeNetは、きめ細かいストロークをキャプチャすることで、テキストを効果的に検出する。
テキスト領域を一連のポイントや長方形のボックスで表現する既存のアプローチとは異なり、各テキストインスタンスのストロークを直接ローカライズする。
論文 参考訳(メタデータ) (2021-11-23T08:26:42Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。