論文の概要: Cross-Lingual Summarization via ChatGPT
- arxiv url: http://arxiv.org/abs/2302.14229v1
- Date: Tue, 28 Feb 2023 01:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 18:33:15.369301
- Title: Cross-Lingual Summarization via ChatGPT
- Title(参考訳): ChatGPTによる言語横断要約
- Authors: Jiaan Wang, Yunlong Liang, Fandong Meng, Zhixu Li, Jianfeng Qu, Jie
Zhou
- Abstract要約: 言語間要約(CLS)は、異なるターゲット言語で要約を生成することを目的としている。
ChatGPTの最近の出現は、計算コミュニティから広く注目を集めている。
本稿では,ChatGPTを誘導する様々なプロンプトを用いて,異なるパラダイムからゼロショットCLSを実行する。
- 参考スコア(独自算出の注目度): 46.02849826568638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a document in a source language, cross-lingual summarization (CLS) aims
to generate a summary in a different target language. Recently, the emergence
of ChatGPT has attracted wide attention from the computational linguistics
community. However, it is not yet known the performance of ChatGPT on CLS. In
this report, we empirically use various prompts to guide ChatGPT to perform
zero-shot CLS from different paradigms (i.e., end-to-end and pipeline), and
provide a preliminary evaluation on its generated summaries.We find that
ChatGPT originally prefers to produce lengthy summaries with more detailed
information. But with the help of an interactive prompt, ChatGPT can balance
between informativeness and conciseness, and significantly improve its CLS
performance. Experimental results on three widely-used CLS datasets show that
ChatGPT outperforms the advanced GPT 3.5 model (i.e., text-davinci-003). In
addition, we provide qualitative case studies to show the superiority of
ChatGPT on CLS.
- Abstract(参考訳): ソース言語の文書が与えられた場合、言語間要約(CLS)は異なるターゲット言語で要約を生成することを目的としている。
近年、ChatGPTの出現は、計算言語学コミュニティから広く注目を集めている。
しかし、CLSにおけるChatGPTの性能は未だ分かっていない。
本報告では,ChatGPTを誘導する様々なプロンプトを用いて,異なるパラダイム(例えばエンドツーエンドとパイプライン)からゼロショットCLSを実行し,生成されたサマリーの予備評価を行う。
しかし、対話的なプロンプトの助けを借りて、ChatGPTは情報量と簡潔さのバランスを保ち、CLSの性能を大幅に向上させることができる。
広く使われている3つのCLSデータセットの実験結果から、ChatGPTは高度なGPT 3.5モデル(つまり、text-davinci-003)より優れていることが示された。
さらに,CLSにおけるChatGPTの優位性を示すための定性的なケーススタディを提供する。
関連論文リスト
- MultiLS: A Multi-task Lexical Simplification Framework [21.81108113189197]
マルチタスクLSデータセットの作成を可能にする最初のLSフレームワークであるMultiLSを提案する。
また,MultiLSフレームワークを用いた最初のデータセットであるMultiLS-PTを提案する。
論文 参考訳(メタデータ) (2024-02-22T21:16:18Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Supervised Knowledge Makes Large Language Models Better In-context
Learners [97.71733265438044]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Using Natural Language Explanations to Improve Robustness of In-context
Learning for Natural Language Inference [37.742836659189095]
大規模言語モデル(LLM)は、タスク固有のプロンプトや例によって促進される、コンテキスト内学習(ICL)を通じて様々なタスクに優れる。
ICLを自然言語説明法(NLE)で拡張すると性能が向上する(これをX-ICLと呼ぶ)。
本研究では,X-ICLが7つの逆数および挑戦的な自然言語推論データセットからなるスイート上でのLLMの堅牢性を向上させることができるかを検討する。
論文 参考訳(メタデータ) (2023-11-13T18:49:13Z) - SCALE: Synergized Collaboration of Asymmetric Language Translation
Engines [105.8983433641208]
本稿では,コンパクトな特殊翻訳モデル (STM) と汎用大言語モデル (LLM) を1つの統合翻訳エンジンとして結合する協調フレームワークを提案する。
STMからの翻訳を3重項インコンテキストのデモに導入することで、SCALEはLLMの洗練とピボット能力を解放する。
実験の結果,SCALEは低リソース環境において,少数ショットLLM (GPT-4) と特殊モデル (NLLB) の両方を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-29T08:46:38Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Towards Unifying Multi-Lingual and Cross-Lingual Summarization [43.89340385650822]
我々は多言語要約(MLS)と多言語要約(CLS)をより一般的な設定、すなわち多対多要約(M2MS)に統一することを目指している。
M2MS への第一歩として,M2MS が MLS や CLS よりも多言語でタスク知識を伝達できることを示す予備的研究を行った。
本稿では,3段階の事前学習を通して言語モデリング,言語横断能力,要約能力を学ぶ,事前学習型M2MSモデルであるPiscesを提案する。
論文 参考訳(メタデータ) (2023-05-16T06:53:21Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。