論文の概要: Towards Zero-Shot Functional Compositionality of Language Models
- arxiv url: http://arxiv.org/abs/2303.03103v1
- Date: Mon, 6 Mar 2023 13:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:05:17.901624
- Title: Towards Zero-Shot Functional Compositionality of Language Models
- Title(参考訳): 言語モデルのゼロショット機能構成性に向けて
- Authors: Hangyeol Yu, Myeongho Jeong, Jamin Shin, Hyeongdon Moon, Juneyoung
Park, Seungtaek Choi
- Abstract要約: PLMを用いた作業の現在のパラダイムは、人間の知性をモデル化する重要な側面である機能的構成性を無視している、と我々は主張する。
現在、PLMは機能的構成性を持っておらず、人間レベルの一般化には程遠いことを示している。
言語モデルのゼロショット機能構成性に向けて、フィールドを推し進めるいくつかの研究方向を提案する。
- 参考スコア(独自算出の注目度): 6.626055421388018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Pre-trained Language Models (PLM) have become the most desirable
starting point in the field of NLP, as they have become remarkably good at
solving many individual tasks. Despite such success, in this paper, we argue
that current paradigms of working with PLMs are neglecting a critical aspect of
modeling human intelligence: functional compositionality. Functional
compositionality - the ability to compose learned tasks - has been a
long-standing challenge in the field of AI (and many other fields) as it is
considered one of the hallmarks of human intelligence. An illustrative example
of such is cross-lingual summarization, where a bilingual person
(English-French) could directly summarize an English document into French
sentences without having to translate the English document or summary into
French explicitly. We discuss why this matter is an important open problem that
requires further attention from the field. Then, we show that current PLMs
(e.g., GPT-2 and T5) don't have functional compositionality yet and it is far
from human-level generalizability. Finally, we suggest several research
directions that could push the field towards zero-shot functional
compositionality of language models.
- Abstract(参考訳): 大規模事前学習言語モデル(PLM)は,NLP分野において最も望ましい出発点となっている。
このような成功にもかかわらず、本稿では、PLMを用いた作業の現在のパラダイムは人間の知性をモデル化する重要な側面を無視している、と論じる。
機能的構成性 - 学習したタスクを構成する能力 - は、人間の知能の目印と見なされるAI(と他の多くの分野)の分野で長年の課題である。
バイリンガルの人物(英語とフランス語)は、英語の文書や要約を明示的にフランス語に翻訳することなく、直接フランス語の文章に英語の文書を要約することができる。
この分野のさらなる関心を必要とする重要なオープン問題である理由について議論する。
そして、現在のPLM(例えば、GPT-2とT5)は機能的構成性を持っておらず、人間レベルの一般化には程遠いことを示す。
最後に、言語モデルのゼロショット機能的構成性にフィールドを向かわせるいくつかの研究方向を提案する。
関連論文リスト
- Breaking Boundaries: Investigating the Effects of Model Editing on Cross-linguistic Performance [6.907734681124986]
本稿では,多言語文脈における知識編集技術を検討することにより,言語的平等の必要性を戦略的に識別する。
Mistral, TowerInstruct, OpenHathi, Tamil-Llama, Kan-Llamaなどのモデルの性能を,英語,ドイツ語,フランス語,イタリア語,スペイン語,ヒンディー語,タミル語,カンナダ語を含む言語で評価した。
論文 参考訳(メタデータ) (2024-06-17T01:54:27Z) - Decomposed Prompting: Unveiling Multilingual Linguistic Structure
Knowledge in English-Centric Large Language Models [12.700783525558721]
GPT-3やLLaMAのような英語中心のLarge Language Models (LLM)は、多言語タスクを実行する素晴らしい能力を示している。
本稿では,シーケンスラベリングタスクにおいて,これらのLLMの言語構造理解を探索するための分解的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T15:15:39Z) - Testing AI on language comprehension tasks reveals insensitivity to underlying meaning [3.335047764053173]
LLM(Large Language Models)は、臨床支援や法的支援から、質問応答や教育まで幅広い分野で採用されている。
しかし、リバースエンジニアリングはモラベックのパラドックスによって拘束されており、簡単なスキルは難しい。
新たなベンチマークで7つの最先端モデルを体系的に評価する。
論文 参考訳(メタデータ) (2023-02-23T20:18:52Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z) - On the Multilingual Capabilities of Very Large-Scale English Language
Models [0.0]
GPT(Generative Pre-trained Transformer)は、機械学習の歴史において、前例のない規模に拡張されている。
本研究では,GPT-3の多言語的スキルについて検討し,事前学習用コーパスであるカタルーニャ語にはほとんど現れない1つの言語に着目した。
このモデルでは、特に生成タスクにおいて、主に言語理解タスクでは予測可能な制限があるが、ゼロショットシナリオでは顕著な結果が得られる。
論文 参考訳(メタデータ) (2021-08-30T16:18:50Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Zero-Shot Cross-Lingual Transfer with Meta Learning [45.29398184889296]
英語以外の言語ではほとんど、あるいは全くデータがない場合に、複数の言語でのトレーニングモデルの設定を同時に検討する。
メタラーニングを用いて、この挑戦的な設定にアプローチできることが示される。
我々は、標準教師付きゼロショットのクロスランガルと、異なる自然言語理解タスクのための数ショットのクロスランガル設定を用いて実験を行った。
論文 参考訳(メタデータ) (2020-03-05T16:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。