論文の概要: Text2Time: Transformer-based Article Time Period Prediction
- arxiv url: http://arxiv.org/abs/2304.10859v2
- Date: Mon, 24 Apr 2023 03:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 11:10:32.440905
- Title: Text2Time: Transformer-based Article Time Period Prediction
- Title(参考訳): text2time:transformerベースの記事時間予測
- Authors: Karthick Prasad Gunasekaran, B Chase Babrich, Saurabh Shirodkar, Hee
Hwang
- Abstract要約: 本研究は,テキストの内容に基づいて,文章,特にニュース記事の出版時期を予測することの問題点を考察する。
私たちは、ニューヨーク・タイムズが60年以上にわたって発行した35万件以上のニュース記事のラベル付きデータセットを作成しました。
提案手法では,テキスト分類のタスク,特に時刻予測のために,事前訓練されたBERTモデルを用いている。
- 参考スコア(独自算出の注目度): 0.11470070927586018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of predicting the publication period of text documents, such as news
articles, is an important but less studied problem in the field of natural
language processing. Predicting the year of a news article can be useful in
various contexts, such as historical research, sentiment analysis, and media
monitoring. In this work, we investigate the problem of predicting the
publication period of a text document, specifically a news article, based on
its textual content. In order to do so, we created our own extensive labeled
dataset of over 350,000 news articles published by The New York Times over six
decades. In our approach, we use a pretrained BERT model fine-tuned for the
task of text classification, specifically for time period prediction.This model
exceeds our expectations and provides some very impressive results in terms of
accurately classifying news articles into their respective publication decades.
The results beat the performance of the baseline model for this relatively
unexplored task of time prediction from text.
- Abstract(参考訳): ニュース記事などのテキスト文書の出版時期を予測するタスクは、自然言語処理の分野において重要であるが、あまり研究されていない問題である。
ニュース記事の年を予測することは、歴史研究、感情分析、メディア監視といった様々な文脈で有用である。
本研究では,テキストの内容に基づいて,テキスト文書,特にニュース記事の出版時期を予測する問題について検討する。
そのために私たちは、New York Timesが60年以上にわたって発行した35万以上のニュース記事のラベル付きデータセットを作りました。
提案手法では,テキスト分類のタスク,特に時間予測のタスクに,事前学習したBERTモデルを用いており,このモデルが期待を超越し,ニュース記事の正確な分類方法として,非常に印象的な結果をもたらす。
その結果は、テキストからの時間予測の比較的未検討なタスクに対して、ベースラインモデルのパフォーマンスを上回った。
関連論文リスト
- On the Role of Context in Reading Time Prediction [50.87306355705826]
我々は,リアルタイム言語理解において,読者がコンテキストをどのように統合するかについて,新たな視点を提示する。
提案手法は,言語単位の処理作業が文脈内情報の内容のアフィン関数であることを示す素因的理論に基づいている。
論文 参考訳(メタデータ) (2024-09-12T15:52:22Z) - AutoCast++: Enhancing World Event Prediction with Zero-shot Ranking-based Context Retrieval [9.357912396498142]
ゼロショットランキングに基づくコンテキスト検索システムであるAutoCast++を紹介する。
提案手法は、まずゼロショットの質問パス関連性に基づいて記事を再ランク付けし、セマンティックな関連するニュースに注目する。
我々は、ドメイン固有のトレーニングを必要とせずに、関連性評価と記事要約を行う。
論文 参考訳(メタデータ) (2023-10-03T08:34:44Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Studying the impacts of pre-training using ChatGPT-generated text on
downstream tasks [0.0]
本研究の目的は,言語モデルの事前学習における人工テキストの影響を検討することである。
我々は、CNN/DailyMailのニュース記事を用いて事前学習したRoBERTaと、同じ記事をトレーニングに用いたChatGPTの比較分析を行った。
事前学習における人工テキストの利用は、下流作業におけるモデルの性能や性別の偏りに有意な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-09-02T12:56:15Z) - NewsEdits: A News Article Revision Dataset and a Document-Level
Reasoning Challenge [122.37011526554403]
NewsEditsは、最初に公開されたニュースリビジョン履歴のデータセットである。
120万記事と、22以上の英語とフランス語の新聞ソースから460万バージョンを収録している。
論文 参考訳(メタデータ) (2022-06-14T18:47:13Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - How News Evolves? Modeling News Text and Coverage using Graphs and
Hawkes Process [3.655021726150368]
本稿では,時間とともに収集されたニューステキストを,セマンティック・トリプルを表す有向多重グラフの列に変換する手法を提案する。
離散時間ホークス法を用いて、これらのグラフから特定の位相変化のダイナミクスをモデル化する。
実世界のデータを用いて、グラフの構造と離散時間ホークスプロセスモデルを分析することで、ニュースイベントがどのようにカバーされているか、どのようにカバーされているかを予測することができることを示す。
論文 参考訳(メタデータ) (2021-11-18T10:36:40Z) - No News is Good News: A Critique of the One Billion Word Benchmark [4.396860522241306]
10億ワードベンチマークは、WMT 2011 News Crawlから派生したデータセットである。
毎年分割されたCommon Crawlのウェブスクラップにのみモデルをトレーニングし、分散シフトによる時間経過とともに、このタスクに悪影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-10-25T02:41:27Z) - Subsentence Extraction from Text Using Coverage-Based Deep Learning
Language Models [3.3461339691835277]
カバレッジに基づく感情・サブセンテンス抽出システムを提案する。
予測サブセンテンスは、感情を表す補助情報からなる。
我々のアプローチは、最先端のアプローチよりも、subsentence予測の大きなマージンで勝っている。
論文 参考訳(メタデータ) (2021-04-20T06:24:49Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。