論文の概要: I still have Time(s): Extending HeidelTime for German Texts
- arxiv url: http://arxiv.org/abs/2204.08848v1
- Date: Tue, 19 Apr 2022 12:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 17:22:41.849463
- Title: I still have Time(s): Extending HeidelTime for German Texts
- Title(参考訳): 私はまだ時間を持っている:ドイツ語のテキストにHeidelTimeを拡張する
- Authors: Andy L\"ucking, Manuel Stoeckel, Giuseppe Abrami, Alexander Mehler
- Abstract要約: HeidelTimeはテキスト中の時間表現を検出するツールである。
HeidelTime-EXT はテキスト中の偽陰性を観測するために使用できる。
- 参考スコア(独自算出の注目度): 63.22865852794608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: HeidelTime is one of the most widespread and successful tools for detecting
temporal expressions in texts. Since HeidelTime's pattern matching system is
based on regular expression, it can be extended in a convenient way. We present
such an extension for the German resources of HeidelTime: HeidelTime-EXT . The
extension has been brought about by means of observing false negatives within
real world texts and various time banks. The gain in coverage is 2.7% or 8.5%,
depending on the admitted degree of potential overgeneralization. We describe
the development of HeidelTime-EXT, its evaluation on text samples from various
genres, and share some linguistic observations. HeidelTime ext can be obtained
from https://github.com/texttechnologylab/heideltime.
- Abstract(参考訳): HeidelTimeはテキスト中の時間表現を検出する最も広く成功したツールの1つである。
HeidelTimeのパターンマッチングシステムは正規表現に基づいているため、便利な方法で拡張することができる。
heideltime-ext という,ドイツのハイデルタイムの資源に対する拡張について述べる。
この拡張は、現実世界のテキストや様々な時間銀行で偽の否定を観察することでもたらされた。
カバレッジの上昇率は2.7%または8.5%であり、潜在的な過剰一般化の程度に依存する。
本稿では,ハイデルタイムextの開発,様々なジャンルのテキストサンプルによる評価,言語観察について述べる。
HeidelTime extはhttps://github.com/texttechnologylab/heideltimeから入手できる。
関連論文リスト
- REST: Retrieval-Based Speculative Decoding [69.06115086237207]
本稿では,言語モデル生成の高速化を目的とした新しいアルゴリズムであるRetrieval-Based Speculative Decoding(REST)を紹介する。
投機的復号化のためのドラフト言語モデルに依存する従来の方法とは異なり、RESTは検索の力を利用してドラフトトークンを生成する。
単一バッチ環境で7Bと13Bの言語モデルでベンチマークすると、RESTはコードやテキスト生成において1.62Xから2.36Xの大幅なスピードアップを達成する。
論文 参考訳(メタデータ) (2023-11-14T15:43:47Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - SESCORE2: Learning Text Generation Evaluation via Synthesizing Realistic
Mistakes [93.19166902594168]
テキスト生成評価のためのモデルベースメトリックを学習するための自己教師型アプローチSESCORE2を提案する。
鍵となる概念は、コーパスから取得した文を摂動することで、現実的なモデルミスを合成することである。
3言語にわたる4つのテキスト生成タスクにおいて,SESCORE2とそれ以前の手法を評価する。
論文 参考訳(メタデータ) (2022-12-19T09:02:16Z) - Time-aware Prompting for Text Generation [17.58231642569116]
文書作成日時などのタイムスタンプを世代システムに組み込む効果について検討する。
1) 自然言語文中の文書のタイムスタンプをエンコードするテキストプロンプト,(2) タイムスタンプを連続ベクトルに変換する線形プロンプト。
論文 参考訳(メタデータ) (2022-11-03T22:10:25Z) - XLTime: A Cross-Lingual Knowledge Transfer Framework for Temporal
Expression Extraction [63.39190486298887]
テンポラル表現抽出(TEE)は自然言語の時間理解に不可欠である。
現在、この領域での作業は、他の言語に対するラベル付きデータが不足しているため、主に英語に焦点を当てている。
我々は,多言語TEEのための新しいフレームワークであるXLTimeを提案する。
論文 参考訳(メタデータ) (2022-05-03T20:00:42Z) - Language modeling via stochastic processes [30.796382023812022]
現代の言語モデルは高品質の短いテキストを生成することができるが、長いテキストを生成するときにはしばしばメランジェや不整合である。
自己教師付き学習における最近の研究は、モデルが対照的な学習を通して優れた潜在表現を学習できることを示唆している。
本稿では,時間制御と呼ばれる構成表現を活用する方法を提案する。
論文 参考訳(メタデータ) (2022-03-21T22:13:53Z) - Time Masking for Temporal Language Models [23.08079115356717]
本研究では,テキストの付加文脈として時間を用いるテンポバーベットという時間的文脈言語モデルを提案する。
本手法は,時相情報によるテキストの修正と時間マスキング(補足時間情報に対する特定のマスキング)に基づく。
論文 参考訳(メタデータ) (2021-10-12T21:15:23Z) - On-the-Fly Controlled Text Generation with Experts and Anti-Experts [70.41630506059113]
本稿では,DExperts: Decoding-time Expertsを提案する。
私たちのアンサンブルの下では、出力トークンは専門家によって可能性が高く、おそらく反専門家によってのみ高い確率を得ます。
論文 参考訳(メタデータ) (2021-05-07T01:19:38Z) - BOLD: Dataset and Metrics for Measuring Biases in Open-Ended Language
Generation [42.34923623457615]
Open-Ended Language Generationデータセットのバイアスは23,679の英語テキスト生成プロンプトで構成されている。
3つの人気のある言語モデルから生成されたテキストを調べると、これらのモデルの大半は、人によるウィキペディアのテキストよりも大きな社会的バイアスを示すことが明らかになっている。
論文 参考訳(メタデータ) (2021-01-27T22:07:03Z) - Exploring Contextualized Neural Language Models for Temporal Dependency
Parsing [10.17066263304299]
BERTは時間依存性解析を大幅に改善することを示す。
また、深く文脈化されたニューラルLMがなぜ役に立ち、どこで不足するかを詳細に分析する。
論文 参考訳(メタデータ) (2020-04-30T03:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。