論文の概要: Proposition from the Perspective of Chinese Language: A Chinese
Proposition Classification Evaluation Benchmark
- arxiv url: http://arxiv.org/abs/2309.09602v1
- Date: Mon, 18 Sep 2023 09:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:23:07.599548
- Title: Proposition from the Perspective of Chinese Language: A Chinese
Proposition Classification Evaluation Benchmark
- Title(参考訳): 中国語の観点からの命題:中国語の命題分類評価ベンチマーク
- Authors: Conghui Niu, Mengyang Hu, Lin Bo, Xiaoli He, Dong Yu, Pengyuan Liu
- Abstract要約: 本稿では言語学と論理学に基づく総合的な多段階命題分類システムを提案する。
複数のドメインから大規模な中国語命題データセットPEACEを作成する。
その結果,命題の意味的特徴を適切にモデル化することの重要性が示された。
- 参考スコア(独自算出の注目度): 21.91454409571424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing propositions often rely on logical constants for classification.
Compared with Western languages that lean towards hypotaxis such as English,
Chinese often relies on semantic or logical understanding rather than logical
connectives in daily expressions, exhibiting the characteristics of parataxis.
However, existing research has rarely paid attention to this issue. And
accurately classifying these propositions is crucial for natural language
understanding and reasoning. In this paper, we put forward the concepts of
explicit and implicit propositions and propose a comprehensive multi-level
proposition classification system based on linguistics and logic.
Correspondingly, we create a large-scale Chinese proposition dataset PEACE from
multiple domains, covering all categories related to propositions. To evaluate
the Chinese proposition classification ability of existing models and explore
their limitations, We conduct evaluations on PEACE using several different
methods including the Rule-based method, SVM, BERT, RoBERTA, and ChatGPT.
Results show the importance of properly modeling the semantic features of
propositions. BERT has relatively good proposition classification capability,
but lacks cross-domain transferability. ChatGPT performs poorly, but its
classification ability can be improved by providing more proposition
information. Many issues are still far from being resolved and require further
study.
- Abstract(参考訳): 既存の命題はしばしば分類の論理定数に依存する。
英語などの低軸に傾く西洋語と比較して、中国語は日常の表現における論理的結合よりも意味論や論理的理解に頼り、パラタキシーの特徴を示す。
しかし、既存の研究がこの問題に注目することはめったにない。
そして、これらの命題を正確に分類することは、自然言語の理解と推論に不可欠です。
本稿では,明示的・暗黙的な命題の概念を提唱し,言語学と論理学に基づく包括的多段階命題分類システムを提案する。
それに対応して,中国の大規模提案データセットを複数のドメインから作成し,提案に関するすべてのカテゴリをカバーする。
既存モデルの中国語命題分類能力を評価し,その限界を探索するために,ルールベース手法,SVM,BERT,RoBERTA,ChatGPTなど,いくつかの異なる手法を用いてPEACE上で評価を行う。
その結果,命題の意味的特徴を適切にモデル化することの重要性が示された。
BERTは比較的優れた命題分類能力を持っているが、ドメイン間の転送性に欠ける。
chatgptは性能が悪いが、より多くの提案情報を提供することで分類能力が向上する。
多くの問題は未だ解決されておらず、さらなる研究が必要である。
関連論文リスト
- Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - Do We Need Language-Specific Fact-Checking Models? The Case of Chinese [15.619421104102516]
本稿では,中国語の事例に着目し,言語固有の事実チェックモデルの潜在的なメリットについて検討する。
まず、翻訳に基づく手法と多言語大言語モデルの限界を実証し、言語固有のシステムの必要性を強調した。
文脈情報を組み込んで文書から証拠をよりよく検索できる中国のファクトチェックシステムを提案する。
論文 参考訳(メタデータ) (2024-01-27T20:26:03Z) - Comparison between parameter-efficient techniques and full fine-tuning: A case study on multilingual news article classification [4.498100922387482]
Adapters and Low-Rank Adaptation (LoRA)は、言語モデルのトレーニングをより効率的にするために設計されたパラメータ効率の良い微調整技術である。
過去の結果は,これらの手法がいくつかの分類タスクの性能を向上させることさえできることを示した。
本稿では,これらの手法が完全微調整と比較して分類性能と計算コストに与える影響について検討する。
論文 参考訳(メタデータ) (2023-08-14T17:12:43Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - How to Agree to Disagree: Managing Ontological Perspectives using
Standpoint Logic [2.9005223064604073]
Standpoint Logicは、既存のKR言語向けのシンプルだが汎用的なマルチモーダル論理アドオンである。
我々は、一階立ち位置論理のスタンドポイントフリーバージョンへのポリタイム変換を提供する。
次に、OWL 2 DL言語に基づく非常に表現力豊かな記述論理 SROIQb_s に対する類似の翻訳を確立する。
論文 参考訳(メタデータ) (2022-06-14T12:29:08Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT [7.057643880514415]
MBERT(Multilingual BERT)が文法をエンコードするには,複数言語の埋め込み空間にまたがるモルフォシンタクティックアライメントの高次文法的特徴がどのように現れるかを検討する。
論文 参考訳(メタデータ) (2021-01-26T19:21:59Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。