論文の概要: NeurIPS 2020 NLC2CMD Competition: Translating Natural Language to Bash
Commands
- arxiv url: http://arxiv.org/abs/2103.02523v1
- Date: Wed, 3 Mar 2021 16:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:03:09.578777
- Title: NeurIPS 2020 NLC2CMD Competition: Translating Natural Language to Bash
Commands
- Title(参考訳): NeurIPS 2020 NLC2CMDコンペティション:自然言語をBashコマンドに変換する
- Authors: Mayank Agarwal, Tathagata Chakraborti, Quchen Fu, David Gros, Xi
Victoria Lin, Jaron Maene, Kartik Talamadupula, Zhongwei Teng, Jules White
- Abstract要約: NLC2CMDコンペティションは、自然言語処理の力をコマンドラインにもたらすことを目的としています。
参加者は、英語でのコマンドラインタスクの説明をBash構文に変換できるモデルの構築を任されました。
これは、タスク、メトリクス、データ、試行されたソリューション、学んだ教訓の詳細を含む競争に関するレポートです。
- 参考スコア(独自算出の注目度): 14.169828834185951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The NLC2CMD Competition hosted at NeurIPS 2020 aimed to bring the power of
natural language processing to the command line. Participants were tasked with
building models that can transform descriptions of command line tasks in
English to their Bash syntax. This is a report on the competition with details
of the task, metrics, data, attempted solutions, and lessons learned.
- Abstract(参考訳): NeurIPS 2020で開催されたNLC2CMDコンペティションは、自然言語処理の力をコマンドラインにもたらすことを目的としています。
参加者は、英語でのコマンドラインタスクの説明をBash構文に変換できるモデルの構築を任されました。
これは、タスク、メトリクス、データ、試行されたソリューション、学んだ教訓の詳細を含む競争に関するレポートです。
関連論文リスト
- Task Arithmetic for Language Expansion in Speech Translation [41.721843322787045]
我々は,新しい言語ペアと既存のモデルで訓練されたモデルを組み合わせることで,新しい言語ペアを拡張することを提案する。
また,STに対するタスク演算の直接適用により,マージされたモデルが命令に従わないことが判明した。
言語を混乱させないために,追加の言語制御モデルとマージする拡張タスク演算法を提案する。
論文 参考訳(メタデータ) (2024-09-17T15:25:11Z) - Large Language Models as Generalizable Policies for Embodied Tasks [50.870491905776305]
大規模言語モデル(LLM)は,視覚的タスクを具現化するための一般化可能なポリシーであることを示す。
我々のアプローチはLarge LAnguage Model Reinforcement Learning Policy (LLaRP)と呼ばれ、学習済みの凍結LDMに適応し、入力テキスト命令と視覚的自我中心の観察と出力動作を環境内で直接行う。
論文 参考訳(メタデータ) (2023-10-26T18:32:05Z) - Natural Language Embedded Programs for Hybrid Language Symbolic Reasoning [84.12154024070024]
本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
論文 参考訳(メタデータ) (2023-09-19T17:54:21Z) - Grounding Complex Natural Language Commands for Temporal Tasks in Unseen
Environments [21.05763924114676]
Lang2LTLは、大規模な言語モデルを利用して、事前の言語データを持たない環境の仕様に時間的ナビゲーションコマンドを基盤とするモジュールシステムである。
都市規模21の環境において,Lang2LTLのナビゲーションコマンドを多種多様な時間的仕様に設定できることを実証する。
論文 参考訳(メタデータ) (2023-02-22T20:56:40Z) - NL2CMD: An Updated Workflow for Natural Language to Bash Commands
Translation [2.099922236065961]
本稿では,Bashコマンドをスクラッチから合成する研究に2つの貢献をする。
まず、対応する英語テキストからBashコマンドを生成するのに使用される最先端の翻訳モデルについて述べる。
第2に、NL2CMDデータセットを新たに導入し、自動生成し、人間の介入を最小限に抑え、以前のデータセットの6倍以上の規模となる。
論文 参考訳(メタデータ) (2023-02-15T18:31:36Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - Summary on the ISCSLP 2022 Chinese-English Code-Switching ASR Challenge [25.69349931845173]
ISCSLP 2022 CSASRチャレンジでは、TAL_CSASRコーパスとMagicData-RAMCコーパス、参加者向けの開発とテストセットの2つのトレーニングセットが提供された。
40以上のチームがこの挑戦に参加し、勝者チームは16.70%の混合誤差率(MER)をテストセットで達成した。
本稿では、データセット、関連するベースラインシステム、および要件を説明し、CSASRチャレンジ結果と提案システムで使用される主要なテクニックとトリックを要約する。
論文 参考訳(メタデータ) (2022-10-12T11:05:13Z) - Continual Learning in Multilingual NMT via Language-Specific Embeddings [92.91823064720232]
共有語彙を小さな言語固有の語彙に置き換え、新しい言語の並列データに新しい埋め込みを微調整する。
元のモデルのパラメータは変更されていないため、初期言語の性能は劣化しない。
論文 参考訳(メタデータ) (2021-10-20T10:38:57Z) - PanGu-$\alpha$: Large-scale Autoregressive Pretrained Chinese Language
Models with Auto-parallel Computation [58.31465205357637]
PanGu-$alpha$という,最大200億パラメータの大規模オートレグレッシブ言語モデルをトレーニングするプラクティスを紹介します。
PanGu-$alpha$はMindSporeの下で開発され、2048 Ascend 910 AIプロセッサのクラスタでトレーニングされている。
論文 参考訳(メタデータ) (2021-04-26T06:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。