論文の概要: Enhancing Keyphrase Extraction from Microblogs using Human Reading Time
- arxiv url: http://arxiv.org/abs/2010.09934v2
- Date: Sun, 25 Oct 2020 11:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:41:27.971319
- Title: Enhancing Keyphrase Extraction from Microblogs using Human Reading Time
- Title(参考訳): ヒト読解時間を利用したマイクロブログからのキーワード抽出
- Authors: Yingyi Zhang and Chengzhi Zhang
- Abstract要約: 我々は、マイクロブログ投稿からキーフレーズを抽出するために、人間の読解時間を活用することを目指している。
オープンソース眼球追跡コーパス(OSEC)から抽出した眼球固定期間を用いた。
もう1つの課題は、人間の読解時間をキーフレーズ抽出モデルに統合する方法を決定することである。
- 参考スコア(独自算出の注目度): 11.68845489508503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The premise of manual keyphrase annotation is to read the corresponding
content of an annotated object. Intuitively, when we read, more important words
will occupy a longer reading time. Hence, by leveraging human reading time, we
can find the salient words in the corresponding content. However, previous
studies on keyphrase extraction ignore human reading features. In this article,
we aim to leverage human reading time to extract keyphrases from microblog
posts. There are two main tasks in this study. One is to determine how to
measure the time spent by a human on reading a word. We use eye fixation
durations extracted from an open source eye-tracking corpus (OSEC). Moreover,
we propose strategies to make eye fixation duration more effective on keyphrase
extraction. The other task is to determine how to integrate human reading time
into keyphrase extraction models. We propose two novel neural network models.
The first is a model in which the human reading time is used as the ground
truth of the attention mechanism. In the second model, we use human reading
time as the external feature. Quantitative and qualitative experiments show
that our proposed models yield better performance than the baseline models on
two microblog datasets.
- Abstract(参考訳): 手動のキーフレーズアノテーションの前提は、アノテーション付きオブジェクトの対応するコンテンツを読むことである。
直感的には、私たちが読むとき、より重要な単語は長い読み時間を占める。
したがって、人間の読解時間を活用することで、対応するコンテンツに有能な単語を見つけることができる。
しかし、キーフレーズ抽出に関するこれまでの研究は、人間の読みの特徴を無視している。
本稿では,マイクロブログ投稿からヒト読解時間を利用してキーワードを抽出することを目的とする。
本研究には2つの主な課題がある。
1つは、人間が単語を読むのに費やす時間を測定する方法を決定することである。
我々は,オープンソース眼球追跡コーパス(osec)から抽出した眼球固定期間を用いる。
さらに,眼球固定期間をキーフレーズ抽出に有効にするための戦略を提案する。
もう一つの課題は、人間の読み時間をキーフレーズ抽出モデルに統合する方法を決定することである。
我々は2つの新しいニューラルネットワークモデルを提案する。
1つ目は、人間の読書時間が注意機構の基礎となる真理として使用されるモデルである。
第2のモデルでは、人間の読書時間を外部の特徴として使用します。
定量的および定性的な実験により,提案モデルが2つのマイクロブログデータセットのベースラインモデルよりも優れた性能を示した。
関連論文リスト
- Fine-Grained Prediction of Reading Comprehension from Eye Movements [1.2062053320259833]
本研究は, 視線運動からの読解理解を, 通路上の1つの質問のレベルで予測する作業に焦点をあてる。
3つの新しいマルチモーダル言語モデルと,文献から得られた先行モデルのバッテリを用いて,この課題に取り組む。
評価の結果,目の動きは,視力の把握に有用な信号を含んでいることが示唆された。
論文 参考訳(メタデータ) (2024-10-06T13:55:06Z) - Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Eyettention: An Attention-based Dual-Sequence Model for Predicting Human
Scanpaths during Reading [3.9766585251585282]
我々は、単語列と時間列の固定を同時に処理する最初の二重系列モデルであるEyettentionを開発する。
スキャンパスの予測において、Eyettentionは最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-21T07:26:49Z) - Sub-word Level Lip Reading With Visual Attention [88.89348882036512]
我々は、リップリーディングで遭遇するユニークな課題に注目し、調整されたソリューションを提案する。
公開データセット上でのトレーニングにおいて,挑戦的なLSS2とLSS3ベンチマークの最先端結果を得る。
我々の最良のモデルはLRS2データセットで22.6%のワードエラー率を達成する。
論文 参考訳(メタデータ) (2021-10-14T17:59:57Z) - Human Attention during Goal-directed Reading Comprehension Relies on
Task Optimization [8.337095123148186]
ゴール指向読書(Goal-directed reading)、すなわち、質問を念頭に置いて回答する一節を読むことは、注目を集める一般的な現実世界の課題である。
そこで本研究では,各単語の読解時間は,変圧器ベースディープニューラルネットワーク(DNN)の注意重みによって予測され,同じ読解タスクを実行するように最適化されていることを示す。
論文 参考訳(メタデータ) (2021-07-13T01:07:22Z) - LiRA: Learning Visual Speech Representations from Audio through
Self-supervision [53.18768477520411]
セルフスーパービジョン(LiRA)による音声からの視覚的表現の学習を提案する。
具体的には、ResNet+Conformerモデルをトレーニングし、未学習の視覚音声から音響的特徴を予測する。
提案手法は,WildデータセットのLip Readingにおいて,他の自己教師的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-16T23:20:06Z) - Hone as You Read: A Practical Type of Interactive Summarization [6.662800021628275]
HAREは、個人的な興味のためにドキュメント要約を最適化するために読者からのフィードバックを使用する新しいタスクです。
このタスクは、長いフィードバックステージに従ってパーソナライズされた要約が生成されるインタラクティブな要約に関連している。
読み上げプロセス中に最小限の侵襲的なフィードバックを収集し、ユーザの関心に適応し、ドキュメントをリアルタイムで拡張することを提案する。
論文 参考訳(メタデータ) (2021-05-06T19:36:40Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - Using Human Psychophysics to Evaluate Generalization in Scene Text
Recognition Models [7.294729862905325]
我々は2つの重要なシーンテキスト認識モデルを,その領域を計測することで特徴付ける。
ドメインは、読み手が様々な単語の長さ、フォント、閉塞量に一般化する能力を指定する。
論文 参考訳(メタデータ) (2020-06-30T19:51:26Z) - Temporal Common Sense Acquisition with Minimal Supervision [77.8308414884754]
この研究は、時間的常識の明示的で暗黙的な言及を活用する新しいシーケンスモデリング手法を提案する。
本手法は,時間的共通感覚の様々な次元の質予測を行う。
また、時間比較、親子関係、イベントコア参照、時間的QAなど、関連するタスクに対するイベントの表現も生成する。
論文 参考訳(メタデータ) (2020-05-08T22:20:16Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。