論文の概要: Neural Approaches to Entity-Centric Information Extraction
- arxiv url: http://arxiv.org/abs/2304.07625v1
- Date: Sat, 15 Apr 2023 20:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:05:44.531950
- Title: Neural Approaches to Entity-Centric Information Extraction
- Title(参考訳): エンティティ中心情報抽出へのニューラルアプローチ
- Authors: Klim Zaporojets
- Abstract要約: テキスト内の情報に対して、根本的に異なるエンティティ中心の視点を導入します。
個々の言及をテキストで意味を理解する代わりに、エンティティの概念の観点で機能するアプリケーションを構築するべきだ、と私たちは主張する。
本研究では,各参照を個別にではなく,コア参照クラスタレベルでエンティティリンクを行うことにより,このタスクを改善することができることを示す。
- 参考スコア(独自算出の注目度): 2.8935588665357077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has huge impact on our daily lives with
applications such as voice assistants, facial recognition, chatbots,
autonomously driving cars, etc. Natural Language Processing (NLP) is a
cross-discipline of AI and Linguistics, dedicated to study the understanding of
the text. This is a very challenging area due to unstructured nature of the
language, with many ambiguous and corner cases. In this thesis we address a
very specific area of NLP that involves the understanding of entities (e.g.,
names of people, organizations, locations) in text. First, we introduce a
radically different, entity-centric view of the information in text. We argue
that instead of using individual mentions in text to understand their meaning,
we should build applications that would work in terms of entity concepts. Next,
we present a more detailed model on how the entity-centric approach can be used
for the entity linking task. In our work, we show that this task can be
improved by considering performing entity linking at the coreference cluster
level rather than each of the mentions individually. In our next work, we
further study how information from Knowledge Base entities can be integrated
into text. Finally, we analyze the evolution of the entities from the evolving
temporal perspective.
- Abstract(参考訳): 人工知能(AI)は、音声アシスタント、顔認識、チャットボット、自動運転車など、私たちの日常生活に大きな影響を与えます。
自然言語処理(英: Natural Language Processing、NLP)は、AIと言語学のクロス分野であり、テキストの理解を研究することを目的としている。
これは言語の構造のない性質のため非常に困難な領域であり、多くの曖昧さとコーナーケースがある。
この論文では、テキストでエンティティ(人名、組織名、場所など)を理解することを含む、NLPの非常に特定の領域に対処する。
まず、テキストにおける情報の根本的に異なるエンティティ中心の視点を導入する。
個々の言及をテキストで意味を理解する代わりに、エンティティの概念の観点で機能するアプリケーションを構築するべきだ、と私たちは主張する。
次に、エンティティリンクタスクにエンティティ中心のアプローチをどのように使用できるか、より詳細なモデルを示す。
本研究では,個々の参照ではなく,コア参照クラスタレベルでエンティティリンクを行うことにより,このタスクを改善することができることを示す。
本研究では,知識ベースエンティティからの情報をテキストに組み込む方法についてさらに検討する。
最後に,進化する時間的視点から実体の進化を分析する。
関連論文リスト
- Representing visual classification as a linear combination of words [0.0]
視覚分類タスクの言語ベースの記述子を識別するために,視覚言語モデルを用いた説明可能性戦略を提案する。
画像とテキストの間に予め訓練された結合埋め込み空間を利用することで,新しい分類課題を単語の線形結合として推定する。
その結果,ドメイン特化言語訓練の欠如にもかかわらず,結果として得られた記述子は臨床知識とほぼ一致していることが判明した。
論文 参考訳(メタデータ) (2023-11-18T02:00:20Z) - Subspace Chronicles: How Linguistic Information Emerges, Shifts and
Interacts during Language Model Training [56.74440457571821]
我々は、構文、意味論、推論を含むタスクを、200万の事前学習ステップと5つのシードで分析する。
タスクや時間にまたがる重要な学習フェーズを特定し、その間にサブスペースが出現し、情報を共有し、後に専門化するために混乱する。
この結果は,モデル解釈可能性,マルチタスク学習,限られたデータからの学習に影響を及ぼす。
論文 参考訳(メタデータ) (2023-10-25T09:09:55Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - A Linguistic Investigation of Machine Learning based Contradiction
Detection Models: An Empirical Analysis and Future Perspectives [0.34998703934432673]
本稿では,2つの自然言語推論データセットについて,その言語的特徴について分析する。
目標は、特に機械学習モデルを理解するのが難しい、構文的および意味的特性を特定することである。
論文 参考訳(メタデータ) (2022-10-19T10:06:03Z) - Identifying concept libraries from language about object structure [56.83719358616503]
自然言語記述を2Kプロシージャ生成オブジェクトの多種多様なセットに利用して,ユーザが使用する部分を特定する。
我々は、異なる部分概念を含むプログラムライブラリの空間の探索として、この問題を形式化する。
自然言語と構造化されたプログラム表現を組み合わせることで、人々が名前をつける部分概念を規定する基本的な情報理論的なトレードオフを発見する。
論文 参考訳(メタデータ) (2022-05-11T17:49:25Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Relation/Entity-Centric Reading Comprehension [1.0965065178451106]
我々は、エンティティとそれらの関係を理解することに焦点を当てて、読書理解について研究する。
自然言語のセマンティクスを表現するために一般的に使用されるため、エンティティと関係に焦点をあてる。
論文 参考訳(メタデータ) (2020-08-27T06:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。