論文の概要: An Update to the Minho Quotation Resource
- arxiv url: http://arxiv.org/abs/2104.06987v1
- Date: Wed, 14 Apr 2021 17:14:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 14:27:15.226149
- Title: An Update to the Minho Quotation Resource
- Title(参考訳): 民法引用資源の更新
- Authors: Brett Drury and Samuel Morais Drury
- Abstract要約: Minho Quotation Resourceは2012年にリリースされた。
ビジネスリーダー、アナリスト、政治家から約50万の見積もりを提供しました。
このアップデートは、ジョブタイトルのテキストの標準化と、ジョブタイトルやアフィリエーションの欠落を暗示している。
この更新により、金融危機時のビジネスコミュニケーションの研究が促進されることが期待されている。
- 参考スコア(独自算出の注目度): 0.7576555453165866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Minho Quotation Resource was originally released in 2012. It provided
approximately 500,000 quotes from business leaders, analysts and politicians
that spanned the period from 2008 to 2012. The original resource had several
failings which include a large number of missing job titles and affiliations as
well as unnormalised job titles which produced a large variation in spellings
and formats of the same employment position. Also, there were numerous
duplicate posts. This update has standardised the job title text as well as the
imputation of missing job titles and affiliations. Duplicate quotes have been
deleted. This update also provides some metaphor and simile extraction as well
as an emotion distribution of the quotes. This update has also replaced an
antiquated version of Lucene index with a JSONL format as well as a rudimentary
interface that can query the data supplied with the resource. It is hoped that
this update will encourage the study of business communication in a time of a
financial crisis.
- Abstract(参考訳): Minho Quotation Resourceは2012年にリリースされた。
2008年から2012年までの期間に、ビジネスリーダー、アナリスト、政治家から50万件の引用を提供した。
元々の資料には、多くの不足した職名や所属、また同じ職の綴りや形式に大きな変化をもたらした非正規の職名など、いくつかの失敗があった。
また、重複する役職も多かった。
このアップデートは、ジョブタイトルのテキストの標準化と、ジョブタイトルやアフィリエーションの欠落を暗示している。
重複した引用が削除された。
このアップデートは、いくつかのメタファーとシミュレート抽出、および引用の感情分布も提供する。
このアップデートでは、旧式のLucene indexをJSONLフォーマットに置き換え、リソースから供給されたデータをクエリできる初歩的なインターフェースも追加された。
この更新により、金融危機時のビジネスコミュニケーションの研究が促進されることが期待されている。
関連論文リスト
- Breaking the Script Barrier in Multilingual Pre-Trained Language Models with Transliteration-Based Post-Training Alignment [50.27950279695363]
転送性能は、低リソースのターゲット言語が高リソースのソース言語とは異なるスクリプトで書かれている場合、しばしば妨げられる。
本論文は,この問題に対処するために翻訳を用いた最近の研究に触発されて,翻訳に基づくポストプレトレーニングアライメント(PPA)手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T08:59:24Z) - CUNI Submission to MRL 2023 Shared Task on Multi-lingual Multi-task
Information Retrieval [5.97515243922116]
本稿では,多言語多タスク情報検索におけるMRL2023共有タスクのためのチャールズ大学システムを提案する。
共有タスクの目的は、いくつかの未表現言語で名前付きエンティティ認識と質問応答のためのシステムを開発することである。
両方のサブタスクに対する私たちのソリューションは、翻訳テストのアプローチに依存しています。
論文 参考訳(メタデータ) (2023-10-25T10:22:49Z) - VacancySBERT: the approach for representation of titles and skills for
semantic similarity search in the recruitment domain [0.0]
本稿では、HRドメインに適用されたディープラーニングセマンティックサーチアルゴリズムに焦点を当てた。
この記事の目的は、求人広告で言及されているスキルとタイトルを結びつけるために、シームズネットワークをトレーニングする新しいアプローチを開発することである。
論文 参考訳(メタデータ) (2023-07-31T13:21:15Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - No News is Good News: A Critique of the One Billion Word Benchmark [4.396860522241306]
10億ワードベンチマークは、WMT 2011 News Crawlから派生したデータセットである。
毎年分割されたCommon Crawlのウェブスクラップにのみモデルをトレーニングし、分散シフトによる時間経過とともに、このタスクに悪影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-10-25T02:41:27Z) - JobBERT: Understanding Job Titles through Skills [12.569546741576515]
ジョブタイトルは、今日の人事(人事)プロセスの基盤を形成します。
ジョブタイトルはコンパクトで便利で、簡単に利用できるデータソースです。
本稿では,空き地から抽出したスキルラベルからの共起情報を事前学習した言語モデルに付加することにより,求職者のニューラル表現モデルを提案する。
論文 参考訳(メタデータ) (2021-09-20T15:00:10Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - hBert + BiasCorp -- Fighting Racism on the Web [58.768804813646334]
これはfox news、breitbartnews、youtubeの3つの特定のソースから139,090のコメントとニュースを含むデータセットです。
本研究では、hBERT を新しい Hopfield Layer を用いて、予め訓練された BERT モデルの特定の層を修正する。
開発者がwebアプリケーションでトレーニングされたモデルを利用できるようにするため、javascriptライブラリとchrome拡張アプリケーションもリリースしています。
論文 参考訳(メタデータ) (2021-04-06T02:17:20Z) - The ApposCorpus: A new multilingual, multi-domain dataset for factual
appositive generation [15.30217350143742]
名前付きエンティティの背景情報は、肯定的な名詞句の形で提供される。
我々は、タスクの新しい、より現実的で、エンドツーエンドの定義で、肯定的な生成における以前の作業を拡張します。
我々は、データとタスクを広範囲に分析し、それらがもたらす様々なモデリング課題を指摘した。
論文 参考訳(メタデータ) (2020-11-06T11:23:09Z) - The Extraordinary Failure of Complement Coercion Crowdsourcing [50.599433903377374]
クラウドソーシングは近年,言語アノテーションの収集を緩和し,スケールアップしている。
本研究の目的は,この現象の注釈付きデータを2つの既知のタスク – 明示的補完と自然言語推論 – に還元することで収集することである。
どちらの場合も、クラウドソーシングは合意のスコアが低かった。
論文 参考訳(メタデータ) (2020-10-12T19:04:04Z) - Job2Vec: Job Title Benchmarking with Collective Multi-View
Representation Learning [51.34011135329063]
Job Title Benchmarking (JTB) は、様々な企業で同様の専門知識を持つ職種をマッチングすることを目的としている。
従来のJTBのアプローチは主に手作業による市場調査に依存しており、それは高価で労働集約的である。
我々はJTBをジョブ-グラフ上のリンク予測のタスクとして再編成し、ジョブタイトルにマッチするリンクはリンクを持つべきである。
論文 参考訳(メタデータ) (2020-09-16T02:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。