論文の概要: CDM: Combining Extraction and Generation for Definition Modeling
- arxiv url: http://arxiv.org/abs/2111.07267v1
- Date: Sun, 14 Nov 2021 08:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:52:47.837849
- Title: CDM: Combining Extraction and Generation for Definition Modeling
- Title(参考訳): CDM:定義モデリングのための抽出と生成の組み合わせ
- Authors: Jie Huang, Hanyin Shao, Kevin Chen-Chuan Chang
- Abstract要約: 本稿では,定義モデリングのための抽出と生成を組み合わせることを提案する。
まず、Webから対象用語の自己および相関的な定義情報を抽出する。
そして、抽出した定義情報を組み込んで最終定義を生成する。
- 参考スコア(独自算出の注目度): 8.487707405248242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Definitions are essential for term understanding. Recently, there is an
increasing interest in extracting and generating definitions of terms
automatically. However, existing approaches for this task are either extractive
or abstractive - definitions are either extracted from a corpus or generated by
a language generation model. In this paper, we propose to combine extraction
and generation for definition modeling: first extract self- and correlative
definitional information of target terms from the Web and then generate the
final definitions by incorporating the extracted definitional information.
Experiments demonstrate our framework can generate high-quality definitions for
technical terms and outperform state-of-the-art models for definition modeling
significantly.
- Abstract(参考訳): 定義は項理解に不可欠である。
近年,用語の定義を自動的に抽出・生成することへの関心が高まっている。
しかし、このタスクに対する既存のアプローチは抽出的または抽象的であり、定義はコーパスから抽出されるか、言語生成モデルによって生成される。
本稿では,定義モデリングのための抽出と生成を組み合わせることを提案する。まず,対象用語の自己および相関的定義情報をwebから抽出し,抽出した定義情報を組み込んだ最終定義を生成する。
実験により、我々のフレームワークは、技術的用語の高品質な定義を生成できることを示した。
関連論文リスト
- Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - "Definition Modeling: To model definitions." Generating Definitions With
Little to No Semantics [0.4061135251278187]
我々は、このタスクが期待するほど意味論を含まないかもしれないという証拠を提示する。
文献から得られた先行モデルは、明示的なポリセミズムのような意味的側面にかなり敏感であることを示す。
論文 参考訳(メタデータ) (2023-06-14T11:08:38Z) - Exploiting Correlations Between Contexts and Definitions with Multiple
Definition Modeling [13.608157331662026]
単一定義モデリング(SDM)は、異なる文脈と単語の定義間の相関やパターンを適切にモデル化しない。
本稿では,対象単語のすべてのコンテキストと定義をプールする,MDM(Multiple Definition Modeling)と呼ばれる新しいタスクを設計する。
我々は,MDM を事前訓練タスクとして使用することにより,SDM の性能向上を含む MDM の利点を実演し,分析する。
論文 参考訳(メタデータ) (2023-05-24T04:38:29Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Fine-grained Contrastive Learning for Definition Generation [10.549051541793544]
従来のエンコーダ・デコーダモデルは、与えられた単語の完全な意味的要素を含む効果的な表現学習を欠いていた。
そこで本研究では,定義シーケンスエンコーディングからより詳細な意味表現を抽出することをモデルに推奨する,新しいコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:55:01Z) - COMPILING: A Benchmark Dataset for Chinese Complexity Controllable
Definition Generation [2.935516292500541]
本稿では,制御可能な複雑性レベルを持つ単語の定義を生成する新しいタスクを提案する。
中国語の定義に関する詳細な情報を得たデータセットCompilingを導入し、その複雑性レベルをラベル付けする。
論文 参考訳(メタデータ) (2022-09-29T08:17:53Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - Compositional Visual Generation with Composable Diffusion Models [80.75258849913574]
拡散モデルを用いた構成生成のための代替的な構造的アプローチを提案する。
画像は拡散モデルの集合を構成することで生成され、それぞれが画像の特定のコンポーネントをモデル化する。
提案手法は, トレーニングで見られるものよりもはるかに複雑なシーンを, テスト時に生成することができる。
論文 参考訳(メタデータ) (2022-06-03T17:47:04Z) - VCDM: Leveraging Variational Bi-encoding and Deep Contextualized Word
Representations for Improved Definition Modeling [24.775371434410328]
定義モデリングの課題は、単語やフレーズの定義を学習することである。
このタスクの既存のアプローチは差別的であり、直接的ではなく暗黙的に分布的意味論と語彙的意味論を組み合わせたものである。
本稿では、文脈内で使われるフレーズとその定義の基盤となる関係を明示的にモデル化するために、連続潜時変数を導入したタスク生成モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T02:48:44Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。