論文の概要: Declarative Memory-based Structure for the Representation of Text Data
- arxiv url: http://arxiv.org/abs/2002.10665v1
- Date: Tue, 25 Feb 2020 04:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:34:49.140966
- Title: Declarative Memory-based Structure for the Representation of Text Data
- Title(参考訳): テキストデータ表現のための宣言的メモリベース構造
- Authors: Sumant Pushp, Pragya Kashmira, Shyamanta M Hazarika
- Abstract要約: 本稿では,人間の記憶基盤に影響されたテキスト表現方式を提案する。
我々は、長期記憶を利用して、経時的に観察されるテキスト情報を保存する。
Wordnetはセマンティックメモリを模倣するために使われてきた。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of intelligent computing, computational progress in text
processing is an essential consideration. Many systems have been developed to
process text over different languages. Though, there is considerable
development, they still lack in understanding of the text, i.e., instead of
keeping text as knowledge, many treat text as a data. In this work we introduce
a text representation scheme which is influenced by human memory
infrastructure. Since texts are declarative in nature, a structural
organization would foster efficient computation over text. We exploit long term
episodic memory to keep text information observed over time. This not only keep
fragments of text in an organized fashion but also reduces redundancy and
stores the temporal relation among them. Wordnet has been used to imitate
semantic memory, which works at word level to facilitate the understanding
about individual words within text. Experimental results of various operation
performed over episodic memory and growth of knowledge infrastructure over time
is reported.
- Abstract(参考訳): インテリジェントコンピューティングの時代には、テキスト処理における計算の進歩が不可欠である。
様々な言語でテキストを処理するために多くのシステムが開発されている。
かなり発展しているとはいえ、テキストの理解に欠けており、テキストを知識として保持する代わりに、テキストをデータとして扱うことが多い。
本稿では,人間の記憶基盤に影響を受けたテキスト表現方式を提案する。
テキストは本質的に宣言的であるため、構造的な組織はテキスト上で効率的な計算を促進する。
長期間のエピソディクスメモリを利用して,テキスト情報を経時的に観察する。
これは、テキストの断片を組織的に保持するだけでなく、冗長性を低減し、それらの間の時間的関係を記憶する。
Wordnetは、テキスト内の個々の単語の理解を容易にするために、単語レベルで機能するセマンティックメモリを模倣するために使われてきた。
エピソード記憶と知識基盤の時間的成長にともなう様々な操作の実験結果が報告された。
関連論文リスト
- Evolving Text Data Stream Mining [2.28438857884398]
このような大量のテキストデータは、毎日オンラインソーシャルプラットフォームによって生成される。
限られた時間とメモリの制約の下で,このようなストリーミングデータから有用な情報を学ぶことが注目されている。
テキストストリーム上でのクラスタリングとマルチラベル学習のための新しい学習モデルを提案する。
論文 参考訳(メタデータ) (2024-08-15T15:38:52Z) - An efficient text augmentation approach for contextualized Mandarin speech recognition [4.600045052545344]
本研究は、テキストのみのデータセットを活用し、事前学習されたASRモデルを文脈化することを提案する。
事前学習したCIFベースのASRを文脈化するために,限られた音声テキストデータを用いたコードブックを構築した。
多様なマンダリンテストセットに対する実験により,我々のTAアプローチは認識性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-14T11:53:14Z) - Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - KETM:A Knowledge-Enhanced Text Matching method [0.0]
知識強化テキストマッチングモデル(KETM)と呼ばれるテキストマッチングの新しいモデルを提案する。
テキストワード定義を外部知識として検索するために、Wiktionaryを使用します。
我々は、ゲーティング機構を用いてテキストと知識を融合させ、テキストと知識融合の比率を学習する。
論文 参考訳(メタデータ) (2023-08-11T17:08:14Z) - ContextSpeech: Expressive and Efficient Text-to-Speech for Paragraph
Reading [65.88161811719353]
本研究は、軽量で効果的なテキスト音声合成システムであるContextSpeechを開発する。
まず,グローバルテキストと音声コンテキストを文エンコーディングに組み込むメモリキャッシュ再帰機構を設計する。
我々は,グローバルな文脈拡張の範囲を広げるため,階層的に構造化されたテキストセマンティクスを構築した。
実験の結果,ContextSpeechは段落読解における音質と韻律を競争モデル効率で著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-07-03T06:55:03Z) - Sequentially Controlled Text Generation [97.22539956688443]
GPT-2は、驚くほど人間らしく、長い文書が混ざり合ったり、人間のような文章構造に従わなかったりする文を生成する。
本研究では,長距離テキストにおける命令構造の問題について検討する。
生成と編集が可能な逐次制御型テキスト生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-01-05T21:23:51Z) - Graph-based Semantical Extractive Text Analysis [0.0]
本研究では,テキストの部分間の意味的類似性を組み込むことで,TextRankアルゴリズムの結果を改善する。
キーワード抽出とテキスト要約とは別に,本フレームワークに基づくトピッククラスタリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-12-19T18:30:26Z) - CLIP also Understands Text: Prompting CLIP for Phrase Understanding [65.59857372525664]
Contrastive Language-Image Pretraining (CLIP)は、自然言語による事前学習によって視覚概念を効率的に学習する。
本稿では,CLIPのテキストエンコーダが語句理解の強力な能力を示し,適切な設計のプロンプトでBERTなどの一般的な言語モデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T23:35:18Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。