論文の概要: FormLM: Recommending Creation Ideas for Online Forms by Modelling
Semantic and Structural Information
- arxiv url: http://arxiv.org/abs/2211.05284v1
- Date: Thu, 10 Nov 2022 01:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:06:08.788554
- Title: FormLM: Recommending Creation Ideas for Online Forms by Modelling
Semantic and Structural Information
- Title(参考訳): FormLM: セマンティックおよび構造情報のモデリングによるオンラインフォーム作成のアイデアの再検討
- Authors: Yijia Shao, Mengyu Zhou, Yifan Zhong, Tao Wu, Hongwei Han, Shi Han,
Gideon Huang, Dongmei Zhang
- Abstract要約: オンラインフォームをモデル化し、フォーム作成のアイデアを推奨するためにFormLMを提示します。
モデルトレーニングと評価のために、62Kのオンラインフォームを持つ最初の公開オンラインフォームデータセットを収集する。
実験の結果,FormLMはすべてのタスクにおいて汎用言語モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 33.70435892949326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online forms are widely used to collect data from human and have a
multi-billion market. Many software products provide online services for
creating semi-structured forms where questions and descriptions are organized
by pre-defined structures. However, the design and creation process of forms is
still tedious and requires expert knowledge. To assist form designers, in this
work we present FormLM to model online forms (by enhancing pre-trained language
model with form structural information) and recommend form creation ideas
(including question / options recommendations and block type suggestion). For
model training and evaluation, we collect the first public online form dataset
with 62K online forms. Experiment results show that FormLM significantly
outperforms general-purpose language models on all tasks, with an improvement
by 4.71 on Question Recommendation and 10.6 on Block Type Suggestion in terms
of ROUGE-1 and Macro-F1, respectively.
- Abstract(参考訳): オンラインフォームは、人間のデータ収集に広く使われ、マルチビリオン市場を持つ。
多くのソフトウェア製品は、質問や説明が事前定義された構造によって構成される半構造化フォームを作成するためのオンラインサービスを提供する。
しかし、フォームの設計と作成プロセスはいまだに退屈で、専門家の知識が必要です。
フォームデザイナを支援するため,本研究では,オンラインフォーム(フォーム構造情報による事前学習言語モデルの拡張)をモデル化し,フォーム作成のアイデア(質問/オプション推奨やブロックタイプ提案を含む)を推奨する。
モデルのトレーニングと評価のために、我々は62kのオンラインフォームを持つ最初のパブリックオンラインフォームデータセットを収集する。
実験の結果, ROUGE-1 と Macro-F1 では, FormLM は全タスクにおいて汎用言語モデルよりも有意に優れ, 質問応答では 4.71 , ブロック型提案では 10.6 の改善が見られた。
関連論文リスト
- EduNLP: Towards a Unified and Modularized Library for Educational Resources [78.8523961816045]
我々はEduNLPという,統一された,モジュール化された,広範なライブラリを紹介し,教育資源の理解に焦点をあてる。
このライブラリでは、ワークフロー全体を4つのキーモジュールに分離し、データ構成、処理、モデル実装、モデル評価など、一貫したインターフェースを提供します。
現在のバージョンでは、主に4つのカテゴリから10の典型的なモデルを提供し、教育領域における5つのダウンストリーム評価タスクを、ユーザの使用に対して8つの被験者に提供します。
論文 参考訳(メタデータ) (2024-06-03T12:45:40Z) - InternLM2 Technical Report [159.70692271378581]
本稿では,オープンソースのLarge Language Models (LLM) であるInternLM2を紹介する。
InternLM2の事前トレーニングプロセスは細部まで詳細に書かれており、多様なデータ型の準備が強調されている。
InternLM2は、4kトークンでトレーニングされた長期的依存関係を効率的にキャプチャし、事前トレーニングおよび微調整の段階で32kトークンに進む。
論文 参考訳(メタデータ) (2024-03-26T00:53:24Z) - Semantic Constraint Inference for Web Form Test Generation [6.0759036120654315]
我々は、Webフォームの自動テスト生成のためのFormNexusと呼ばれる革新的なアプローチを導入する。
FormNexusは、個々のフォーム要素とそれらの関係から意味的な洞察を導き出すことを強調している。
GPT-4と組み合わされたFormNexusは,フォームサブミッション状態において89%のカバレッジを実現していることを示す。
論文 参考訳(メタデータ) (2024-02-01T19:10:05Z) - ShapeGPT: 3D Shape Generation with A Unified Multi-modal Language Model [27.122194733305594]
本稿では,複数の形状関連タスクに対処するために,強力な事前学習言語モデルを活用する形状関連マルチモーダルフレームワークであるShapeGPTを提案する。
具体的には、ShapeGPTは、連続した形状を形語に識別するための単語文パラグラフフレームワークを使用し、さらにこれらの単語を形文のために組み立て、複数段落の指示文に統合する。
実験により、ShapeGPTは、テキスト・トゥ・シェイプ、シェイプ・トゥ・テキスト、シェイプ・コンプリート、形状編集など、形状関連タスクに匹敵する性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-29T13:26:29Z) - Prompt2Model: Generating Deployable Models from Natural Language
Instructions [74.19816829003729]
大規模言語モデル(LLM)により、システムビルダーはプロンプトによって有能なNLPシステムを作成することができる。
言い換えれば、LSMは従来の特殊目的のNLPモデルとは逆のステップである。
本稿では,LLMに提供されるプロンプトのように自然言語によるタスク記述を行う汎用手法であるPrompt2Modelを提案する。
論文 参考訳(メタデータ) (2023-08-23T17:28:21Z) - Benchmarking Diverse-Modal Entity Linking with Generative Models [78.93737257356784]
既存の EL データセットから様々なモード EL (DMEL) のベンチマークを構築した。
DMEL タスクにアプローチするため,マルチモーダルエンコーダ・デコーダのパラダイムに則って生成多モードモデル (GDMM) を提案する。
GDMMは、より強力なDMELベースラインを構築し、平均8.51F1スコアで最先端のタスク固有のELモデルを上回っている。
論文 参考訳(メタデータ) (2023-05-27T02:38:46Z) - LongForm: Effective Instruction Tuning with Reverse Instructions [74.14035528786997]
本稿では,逆命令によって生成されるLongForm-Cデータセットを紹介する。
逆命令を用いた人書きコーパスの例を LLM で生成する。
我々のモデルは、ストーリー/レシピ生成や長文質問応答といったタスクを指導することなく、10倍の言語モデルより優れています。
論文 参考訳(メタデータ) (2023-04-17T17:36:35Z) - FormNet: Structural Encoding beyond Sequential Modeling in Form Document
Information Extraction [32.04423945008829]
FormNetは、フォームの最適部分シリアライゼーションを緩和する構造対応シーケンスモデルである。
実験では、FormNetは、よりコンパクトで事前学習の少ない既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2022-03-16T06:02:02Z) - mForms : Multimodal Form-Filling with Question Answering [1.7614751781649955]
本稿では,マルチモーダルな自然言語質問回答 (QA) としてタスクを再構築し,フォームフィリングへの新たなアプローチを提案する。
GUI形式の要素(テキストフィールド、ボタン、アイコンなど)を自然言語の質問に翻訳し、これらの質問が要素のマルチモーダルなセマンティクスをキャプチャする。
その結果, この手法は, スパーストレーニング条件に対する堅牢な精度を維持するだけでなく, トレーニングデータの約10分の1をATIS上で0.97の最先端F1を達成することができた。
論文 参考訳(メタデータ) (2020-11-24T19:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。