論文の概要: ConFiguRe: Exploring Discourse-level Chinese Figures of Speech
- arxiv url: http://arxiv.org/abs/2209.07678v1
- Date: Fri, 16 Sep 2022 02:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:47:41.788332
- Title: ConFiguRe: Exploring Discourse-level Chinese Figures of Speech
- Title(参考訳): ConFigure: 談話レベルの中国語の表現
- Authors: Dawei Zhu, Qiusi Zhan, Zhejian Zhou, Yifan Song, Jiebin Zhang, Sujian
Li
- Abstract要約: コンフィギュア認識のための中国語コーパス(ConFiguRe)の構築
ConFiguReは、談話レベルのコンテキストから図形単位を抽出することを目的としている。
私たちは徹底的な実験を行い、3つのタスクがすべて既存のモデルに挑戦していることを示します。
- 参考スコア(独自算出の注目度): 19.356209443798694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Figures of speech, such as metaphor and irony, are ubiquitous in literature
works and colloquial conversations. This poses great challenge for natural
language understanding since figures of speech usually deviate from their
ostensible meanings to express deeper semantic implications. Previous research
lays emphasis on the literary aspect of figures and seldom provide a
comprehensive exploration from a view of computational linguistics. In this
paper, we first propose the concept of figurative unit, which is the carrier of
a figure. Then we select 12 types of figures commonly used in Chinese, and
build a Chinese corpus for Contextualized Figure Recognition (ConFiguRe).
Different from previous token-level or sentence-level counterparts, ConFiguRe
aims at extracting a figurative unit from discourse-level context, and
classifying the figurative unit into the right figure type. On ConFiguRe, three
tasks, i.e., figure extraction, figure type classification and figure
recognition, are designed and the state-of-the-art techniques are utilized to
implement the benchmarks. We conduct thorough experiments and show that all
three tasks are challenging for existing models, thus requiring further
research. Our dataset and code are publicly available at
https://github.com/pku-tangent/ConFiguRe.
- Abstract(参考訳): 比喩や皮肉のような言葉の図形は、文学作品や口語会話で広く使われている。
これは自然言語理解にとって大きな課題となる。話し言葉の数字は、通常、より深い意味的意味を表現するために、目に見える意味から逸脱する。
これまでの研究では、数字とセルの文学的側面に重点を置いており、計算言語学の観点からの包括的な探索はめったにない。
本稿ではまず,図形のキャリアである図形単位の概念を提案する。
次に,中国語で一般的に用いられる12種類の図形を選択し,文脈認識のための中国語コーパスを構築する。
従来のトークンレベルや文レベルとは異なるConFiguReは、談話レベルのコンテキストから図形単位を抽出し、図形単位を正しい図形タイプに分類することを目的としている。
ConFiguReでは、図形抽出、図形分類、図形認識という3つのタスクが設計され、最新技術を用いてベンチマークを実装している。
我々は、徹底的な実験を行い、3つのタスクが既存のモデルに挑戦していることを示す。
私たちのデータセットとコードはhttps://github.com/pku-tangent/ConFiguReで公開されています。
関連論文リスト
- Compositional Entailment Learning for Hyperbolic Vision-Language Models [54.41927525264365]
画像とテキストのペアを超えて、双曲的埋め込みの自然的階層性を完全に活用する方法を示す。
双曲型視覚言語モデルのための構成的包摂学習を提案する。
数百万の画像テキストペアで訓練された双曲型視覚言語モデルに対する経験的評価は、提案手法が従来のユークリッドCLIP学習より優れていることを示している。
論文 参考訳(メタデータ) (2024-10-09T14:12:50Z) - IRFL: Image Recognition of Figurative Language [20.472997304393413]
図形は、しばしば複数のモダリティ(例えば、テキストと画像の両方)を通して伝達される。
我々は、図形言語データセットの画像認識を開発する。
マルチモーダルな図形言語理解のためのベンチマークとして,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-03-27T17:59:55Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Idiomatic Expression Identification using Semantic Compatibility [8.355785779504869]
文が慣用的表現を持っているかどうかを検知し,それを局所化するタスクについて検討する。
本稿では,これらの表現を識別するためのアテンションフロー機構を備えた多段階ニューラルアーキテクチャを提案する。
このモデルの健全な特徴は、トレーニング中に見えないイディオムを識別できることであり、競争ベースラインよりも1.4%から30.8%向上している。
論文 参考訳(メタデータ) (2021-10-19T15:44:28Z) - ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language
Understanding [12.107259467873092]
本稿では,抽象言語理解のためのベンチマークとして,文脈の証明を取り入れた高品質なクラウドソース型物語データセットを提案する。
このデータセットは、小冊子と物語の間の配列の微妙な注釈を提供し、物語と物語の間には最小限の語彙的重複を含む。
我々の実験は、ニューラルネットワークモデルが人間に比べてタスクに苦労していることを示し、タスクが複数の学習課題を引き起こすことを示している。
論文 参考訳(メタデータ) (2021-09-14T17:21:12Z) - It's not Rocket Science : Interpreting Figurative Language in Narratives [48.84507467131819]
我々は2つの非構成的図形言語(イディオムとシミュラ)の解釈を研究する。
実験の結果、事前学習された言語モデルのみに基づくモデルは、これらのタスクにおいて人間よりもはるかにひどい性能を示すことがわかった。
また, 知識強化モデルを提案し, 具体的言語を解釈するための人的戦略を採用した。
論文 参考訳(メタデータ) (2021-08-31T21:46:35Z) - From Show to Tell: A Survey on Image Captioning [48.98681267347662]
視覚と言語を結びつけることは、ジェネレーティブ・インテリジェンスにおいて重要な役割を担っている。
画像キャプションの研究はまだ結論に達していない。
本研究の目的は,画像キャプション手法の包括的概要と分類を提供することである。
論文 参考訳(メタデータ) (2021-07-14T18:00:54Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。