論文の概要: Analysis of Language Change in Collaborative Instruction Following
- arxiv url: http://arxiv.org/abs/2109.04452v1
- Date: Thu, 9 Sep 2021 17:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:17:37.542326
- Title: Analysis of Language Change in Collaborative Instruction Following
- Title(参考訳): 協調指導における言語変化の分析
- Authors: Anna Effenberger, Eva Yan, Rhia Singh, Alane Suhr, Yoav Artzi
- Abstract要約: 実用性を最大化する参加者がコンベンションを形成し、専門性を向上する、協調的な目標指向の指導タスクにおいて、言語の変化を経時的に分析する。
指導力を高める能力を考えると、教師はこれらの研究領域に沿って言語複雑性を増大させ、より熟練した指導者とよりよく協力できることが分かる。
- 参考スコア(独自算出の注目度): 15.605114421965045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze language change over time in a collaborative, goal-oriented
instructional task, where utility-maximizing participants form conventions and
increase their expertise. Prior work studied such scenarios mostly in the
context of reference games, and consistently found that language complexity is
reduced along multiple dimensions, such as utterance length, as conventions are
formed. In contrast, we find that, given the ability to increase instruction
utility, instructors increase language complexity along these previously
studied dimensions to better collaborate with increasingly skilled instruction
followers.
- Abstract(参考訳): 我々は,目的指向の協調的な指導課題において,時間とともに言語の変化を分析する。
先行研究は、主に参照ゲームの文脈でこのようなシナリオを研究し、慣習が形成されるにつれて、発話長などの複数の次元に沿って言語複雑性が減少することを示した。
対照的に、教師は、教師の効用を高める能力を考えると、これらの研究された次元に沿って言語複雑性を増大させ、より熟練した指導従者とよりよく協力できることが分かる。
関連論文リスト
- A Recipe of Parallel Corpora Exploitation for Multilingual Large Language Models [64.79218405438871]
最近の研究は、多言語大言語モデルを強化するために並列コーパスを利用する可能性を強調している。
並列コーパスで強化された多言語大言語モデルの性能に及ぼす並列コーパスの品質と量,訓練目標,モデルサイズの影響について検討した。
論文 参考訳(メタデータ) (2024-06-29T13:12:39Z) - Subspace Chronicles: How Linguistic Information Emerges, Shifts and
Interacts during Language Model Training [56.74440457571821]
我々は、構文、意味論、推論を含むタスクを、200万の事前学習ステップと5つのシードで分析する。
タスクや時間にまたがる重要な学習フェーズを特定し、その間にサブスペースが出現し、情報を共有し、後に専門化するために混乱する。
この結果は,モデル解釈可能性,マルチタスク学習,限られたデータからの学習に影響を及ぼす。
論文 参考訳(メタデータ) (2023-10-25T09:09:55Z) - IdEALS: Idiomatic Expressions for Advancement of Language Skills [46.42809610978052]
本稿では,学生書記における慣用的表現の活用の課題について検討する。
そこで本研究では,実世界のデータを用いて,広範囲なトレーニングセットと専門家アノテートテストセットをキュレートし,さまざまなアプローチを評価し,その性能を人的専門家と比較する。
論文 参考訳(メタデータ) (2023-05-23T03:11:41Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - An Empirical Revisiting of Linguistic Knowledge Fusion in Language
Understanding Tasks [33.765874588342285]
構文的・意味的知識を持つ言語モデルの構築は,多くの言語理解タスクにおいて改善されている。
GLUEベンチマークにおいて,解析されたグラフや木を簡単なタスクに置き換える実験的検討を行った。
このことは、利得は明示的な言語的先行によるものではなく、融合層によってもたらされるより機能的な相互作用によるものであることを明らかにしている。
論文 参考訳(メタデータ) (2022-10-24T07:47:32Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Fine-Grained Analysis of Cross-Linguistic Syntactic Divergences [18.19093600136057]
並列コーパスから任意の言語対の発散パターンを抽出するフレームワークを提案する。
我々のフレームワークは、言語間の相違の詳細な図を提供し、以前のアプローチを一般化し、完全に自動化することを示します。
論文 参考訳(メタデータ) (2020-05-07T13:05:03Z) - Compositional properties of emergent languages in deep learning [12.08369037936121]
2つの異なる協調型マルチエージェントゲームから生じる創発的言語を,より正確な構成性の尺度で解析する。
この結果から,ディープラーニングモデルから得られる解には,抽象レベルでの推論能力が欠如していることが示唆された。
構成能力の検証と人間レベルの概念の出現について論じる。
論文 参考訳(メタデータ) (2020-01-23T15:55:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。