論文の概要: Proposition from the Perspective of Chinese Language: A Chinese
Proposition Classification Evaluation Benchmark
- arxiv url: http://arxiv.org/abs/2309.09602v1
- Date: Mon, 18 Sep 2023 09:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:23:07.599548
- Title: Proposition from the Perspective of Chinese Language: A Chinese
Proposition Classification Evaluation Benchmark
- Title(参考訳): 中国語の観点からの命題:中国語の命題分類評価ベンチマーク
- Authors: Conghui Niu, Mengyang Hu, Lin Bo, Xiaoli He, Dong Yu, Pengyuan Liu
- Abstract要約: 本稿では言語学と論理学に基づく総合的な多段階命題分類システムを提案する。
複数のドメインから大規模な中国語命題データセットPEACEを作成する。
その結果,命題の意味的特徴を適切にモデル化することの重要性が示された。
- 参考スコア(独自算出の注目度): 21.91454409571424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing propositions often rely on logical constants for classification.
Compared with Western languages that lean towards hypotaxis such as English,
Chinese often relies on semantic or logical understanding rather than logical
connectives in daily expressions, exhibiting the characteristics of parataxis.
However, existing research has rarely paid attention to this issue. And
accurately classifying these propositions is crucial for natural language
understanding and reasoning. In this paper, we put forward the concepts of
explicit and implicit propositions and propose a comprehensive multi-level
proposition classification system based on linguistics and logic.
Correspondingly, we create a large-scale Chinese proposition dataset PEACE from
multiple domains, covering all categories related to propositions. To evaluate
the Chinese proposition classification ability of existing models and explore
their limitations, We conduct evaluations on PEACE using several different
methods including the Rule-based method, SVM, BERT, RoBERTA, and ChatGPT.
Results show the importance of properly modeling the semantic features of
propositions. BERT has relatively good proposition classification capability,
but lacks cross-domain transferability. ChatGPT performs poorly, but its
classification ability can be improved by providing more proposition
information. Many issues are still far from being resolved and require further
study.
- Abstract(参考訳): 既存の命題はしばしば分類の論理定数に依存する。
英語などの低軸に傾く西洋語と比較して、中国語は日常の表現における論理的結合よりも意味論や論理的理解に頼り、パラタキシーの特徴を示す。
しかし、既存の研究がこの問題に注目することはめったにない。
そして、これらの命題を正確に分類することは、自然言語の理解と推論に不可欠です。
本稿では,明示的・暗黙的な命題の概念を提唱し,言語学と論理学に基づく包括的多段階命題分類システムを提案する。
それに対応して,中国の大規模提案データセットを複数のドメインから作成し,提案に関するすべてのカテゴリをカバーする。
既存モデルの中国語命題分類能力を評価し,その限界を探索するために,ルールベース手法,SVM,BERT,RoBERTA,ChatGPTなど,いくつかの異なる手法を用いてPEACE上で評価を行う。
その結果,命題の意味的特徴を適切にモデル化することの重要性が示された。
BERTは比較的優れた命題分類能力を持っているが、ドメイン間の転送性に欠ける。
chatgptは性能が悪いが、より多くの提案情報を提供することで分類能力が向上する。
多くの問題は未だ解決されておらず、さらなる研究が必要である。
関連論文リスト
- Comparison between parameter-efficient techniques and full fine-tuning:
A case study on multilingual news article classification [4.691835056417613]
Adapters and Low-Rank Adaptation (LoRA)は、言語モデルのトレーニングをより効率的にするために設計されたパラメータ効率の良い微調整技術である。
過去の結果は,これらの手法がいくつかの分類タスクの性能を向上させることさえできることを示した。
本稿では,これらの手法が完全微調整と比較して分類性能と計算コストに与える影響について検討する。
論文 参考訳(メタデータ) (2023-08-14T17:12:43Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - How to Agree to Disagree: Managing Ontological Perspectives using
Standpoint Logic [2.9005223064604073]
Standpoint Logicは、既存のKR言語向けのシンプルだが汎用的なマルチモーダル論理アドオンである。
我々は、一階立ち位置論理のスタンドポイントフリーバージョンへのポリタイム変換を提供する。
次に、OWL 2 DL言語に基づく非常に表現力豊かな記述論理 SROIQb_s に対する類似の翻訳を確立する。
論文 参考訳(メタデータ) (2022-06-14T12:29:08Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - It's All in the Heads: Using Attention Heads as a Baseline for
Cross-Lingual Transfer in Commonsense Reasoning [4.200736775540874]
我々は,重みを重み付けした線形分類器を特徴として訓練するコモンセンス推論への簡単なアプローチを設計する。
本手法は,近年のコモンセンス推論における教師なし・教師なしの手法と競合する。
パフォーマンスの大部分は、すべての研究対象言語に対する注目の小さなサブセットによって与えられる。
論文 参考訳(メタデータ) (2021-06-22T21:25:43Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT [7.057643880514415]
MBERT(Multilingual BERT)が文法をエンコードするには,複数言語の埋め込み空間にまたがるモルフォシンタクティックアライメントの高次文法的特徴がどのように現れるかを検討する。
論文 参考訳(メタデータ) (2021-01-26T19:21:59Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z) - The Impact of Indirect Machine Translation on Sentiment Classification [6.719549885077474]
本稿では,顧客からのフィードバックを他の言語に翻訳する機械翻訳システムを提案する。
直接翻訳が必ずしも可能であるとは限らないため、翻訳された文に対する自動分類器の性能について検討する。
提案する感情分類システムの性能を解析し、翻訳文の分類の利点と欠点について考察する。
論文 参考訳(メタデータ) (2020-08-25T20:30:21Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。