論文の概要: Text2Time: Transformer-based article time period predictor
- arxiv url: http://arxiv.org/abs/2304.10859v1
- Date: Fri, 21 Apr 2023 10:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:13:19.452042
- Title: Text2Time: Transformer-based article time period predictor
- Title(参考訳): Text2Time: Transformerベースの記事時間予測器
- Authors: Karthick Prasad Gunasekaran, B Chase Babrich, Saurabh Shirodkar, Hee
Hwang
- Abstract要約: 我々は,その文書からのテキストを用いて,ニュース記事などのテキスト文書の出版期間を予測する問題について検討する。
私たちは、ニューヨーク・タイムズが60年以上にわたって発行した35万件以上のニュース記事のラベル付きデータセットを作成しました。
次に、単純なネイブベイズベースラインモデルの実装を行い、精度の点で驚くほど高い性能を達成する。
- 参考スコア(独自算出の注目度): 0.11470070927586018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the problem of predicting the publication period of text document,
such as a news article, using the text from that document. In order to do so,
we created our own extensive labeled dataset of over 350,000 news articles
published by The New York Times over six decades. We then provide an
implementation of a simple Naive Bayes baseline model, which surprisingly
achieves decent performance in terms of accuracy.Finally, for our approach, we
use a pretrained BERT model fine-tuned for the task of text classification.
This model exceeds our expectations and provides some very impressive results
in terms of accurately classifying news articles into their respective
publication decades. The results beat the performance of the few previously
tried models for this relatively unexplored task of time prediction from text.
- Abstract(参考訳): 我々は,その文書からのテキストを用いて,ニュース記事などのテキスト文書の出版期間を予測する問題について検討する。
そのために私たちは、New York Timesが60年以上にわたって発行した35万以上のニュース記事のラベル付きデータセットを作りました。
次に,本手法では,テキスト分類のタスクに対して,事前学習したBERTモデルを用いて,驚くほど高い精度で性能を達成できる簡易なNaive Bayesベースラインモデルの実装を行う。
このモデルは私たちの期待を超越し、ニュース記事の正確な分類に関して非常に印象的な結果をもたらす。
この結果は、テキストによる比較的未熟な時間予測のために、以前試したモデルのパフォーマンスを上回った。
関連論文リスト
- On the Role of Context in Reading Time Prediction [50.87306355705826]
我々は,リアルタイム言語理解において,読者がコンテキストをどのように統合するかについて,新たな視点を提示する。
提案手法は,言語単位の処理作業が文脈内情報の内容のアフィン関数であることを示す素因的理論に基づいている。
論文 参考訳(メタデータ) (2024-09-12T15:52:22Z) - AutoCast++: Enhancing World Event Prediction with Zero-shot Ranking-based Context Retrieval [9.357912396498142]
ゼロショットランキングに基づくコンテキスト検索システムであるAutoCast++を紹介する。
提案手法は、まずゼロショットの質問パス関連性に基づいて記事を再ランク付けし、セマンティックな関連するニュースに注目する。
我々は、ドメイン固有のトレーニングを必要とせずに、関連性評価と記事要約を行う。
論文 参考訳(メタデータ) (2023-10-03T08:34:44Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Studying the impacts of pre-training using ChatGPT-generated text on
downstream tasks [0.0]
本研究の目的は,言語モデルの事前学習における人工テキストの影響を検討することである。
我々は、CNN/DailyMailのニュース記事を用いて事前学習したRoBERTaと、同じ記事をトレーニングに用いたChatGPTの比較分析を行った。
事前学習における人工テキストの利用は、下流作業におけるモデルの性能や性別の偏りに有意な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-09-02T12:56:15Z) - NewsEdits: A News Article Revision Dataset and a Document-Level
Reasoning Challenge [122.37011526554403]
NewsEditsは、最初に公開されたニュースリビジョン履歴のデータセットである。
120万記事と、22以上の英語とフランス語の新聞ソースから460万バージョンを収録している。
論文 参考訳(メタデータ) (2022-06-14T18:47:13Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - How News Evolves? Modeling News Text and Coverage using Graphs and
Hawkes Process [3.655021726150368]
本稿では,時間とともに収集されたニューステキストを,セマンティック・トリプルを表す有向多重グラフの列に変換する手法を提案する。
離散時間ホークス法を用いて、これらのグラフから特定の位相変化のダイナミクスをモデル化する。
実世界のデータを用いて、グラフの構造と離散時間ホークスプロセスモデルを分析することで、ニュースイベントがどのようにカバーされているか、どのようにカバーされているかを予測することができることを示す。
論文 参考訳(メタデータ) (2021-11-18T10:36:40Z) - No News is Good News: A Critique of the One Billion Word Benchmark [4.396860522241306]
10億ワードベンチマークは、WMT 2011 News Crawlから派生したデータセットである。
毎年分割されたCommon Crawlのウェブスクラップにのみモデルをトレーニングし、分散シフトによる時間経過とともに、このタスクに悪影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-10-25T02:41:27Z) - Subsentence Extraction from Text Using Coverage-Based Deep Learning
Language Models [3.3461339691835277]
カバレッジに基づく感情・サブセンテンス抽出システムを提案する。
予測サブセンテンスは、感情を表す補助情報からなる。
我々のアプローチは、最先端のアプローチよりも、subsentence予測の大きなマージンで勝っている。
論文 参考訳(メタデータ) (2021-04-20T06:24:49Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。