論文の概要: Incorporating Task-specific Concept Knowledge into Script Learning
- arxiv url: http://arxiv.org/abs/2209.00068v1
- Date: Wed, 31 Aug 2022 18:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:28:37.979986
- Title: Incorporating Task-specific Concept Knowledge into Script Learning
- Title(参考訳): タスク固有の概念知識をスクリプト学習に組み込む
- Authors: Chenkai Sun, Tie Xu, ChengXiang Zhai, Heng ji
- Abstract要約: 私たちは、Goal-Oriented Script Completionの新しいタスクであるTetrisを紹介します。
知識に基づくアプローチを用いてこの問題に対処するために,タスク概念グラフを導入する。
タスク概念グラフから概念を取り入れることで、一貫してパフォーマンスが向上することがわかった。
- 参考スコア(独自算出の注目度): 68.95195207989605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present Tetris, a new task of Goal-Oriented Script
Completion. Unlike previous work, it considers a more realistic and more
general setting, where the input includes not only the goal but also additional
user context, including preferences and history. To address the problem using a
knowledge-based approach, we introduce Task Concept Graph, an automatically
constructed knowledge base from instructional websites. Different from
Commonsense Knowledge Base like ConceptNet, the task concept graph schema
introduces various types of noun phrases-based nodes specifically for
accomplishing a task. To integrate such graphs into script learning, we devise
two methods that acquire concepts from the knowledge base as prompts to
downstream script completion. On our WikiHow-based dataset, we find that
incorporating concepts from the Task Concept Graph consistently improves
performance, demonstrating the benefit of Task Concept Graph for this task.
Furthermore, the model with gold-standard concepts as prompt outperforms the
baseline significantly, further confirming the need for task-specific knowledge
in goal-oriented script completion. The dataset, repository, models, and demo
will be publicly available to facilitate further research on this new task.
- Abstract(参考訳): 本稿では,Goal-Oriented Script Completionの新しいタスクであるTetrisを紹介する。
以前の作業とは異なり、よりリアルで一般的な設定であり、入力には目標だけでなく、好みや履歴を含む追加のユーザコンテキストが含まれる。
知識に基づくアプローチを用いてこの問題に対処するために,指導Webサイトから自動的に構築された知識ベースであるタスク概念グラフを導入する。
ConceptNetのようなCommonsense Knowledge Baseとは異なり、タスク概念グラフスキーマはタスクを達成するために、様々な種類の名詞句ベースのノードを導入します。
そこで我々は,このようなグラフをスクリプト学習に統合するために,知識ベースから概念を取得する2つの手法を考案した。
WikiHowベースのデータセットでは、タスク概念グラフから概念を取り入れることで、タスク概念グラフの利点を実証し、一貫してパフォーマンスが向上することがわかった。
さらに、金の標準概念をプロンプトとして持つモデルはベースラインを大きく上回り、目標指向のスクリプト補完におけるタスク固有の知識の必要性をさらに確認する。
データセット、リポジトリ、モデル、デモは、この新しいタスクに関するさらなる研究を促進するために公開される予定だ。
関連論文リスト
- Reducing catastrophic forgetting of incremental learning in the absence of rehearsal memory with task-specific token [0.6144680854063939]
ディープラーニングモデルは、新しいデータを継続的に学習する際に破滅的な忘れを見せる。
本稿では,従来のデータを保存することなく,過去の知識を保存できる新しい手法を提案する。
この方法は視覚変換器のアーキテクチャにインスパイアされ、各タスクの圧縮された知識をカプセル化できるユニークなトークンを使用する。
論文 参考訳(メタデータ) (2024-11-06T16:13:50Z) - Advancing Prompt Learning through an External Layer [24.77977865016954]
本稿では,新しい外部層(EnLa)を備えたEnPromptというパラダイムを提案する。
学習可能な外部レイヤは、トレーニング済みのCLIPの有効な埋め込みに基づいて構築される。
4つの実験により,本手法が既存の即時学習法より優れていることが示された。
論文 参考訳(メタデータ) (2024-07-29T03:30:09Z) - Cycle Consistency Driven Object Discovery [75.60399804639403]
本研究では,シーンの各オブジェクトが異なるスロットに関連付けられなければならない制約を明示的に最適化する手法を提案する。
これらの一貫性目標を既存のスロットベースのオブジェクト中心手法に統合することにより、オブジェクト発見性能を大幅に改善することを示す。
提案手法は,オブジェクト発見を改善するだけでなく,下流タスクのよりリッチな機能も提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-03T21:49:06Z) - CSSL-MHTR: Continual Self-Supervised Learning for Scalable Multi-script Handwritten Text Recognition [16.987008461171065]
我々は,手書き文字認識における破滅的な忘れの問題を軽減するために,連続的な自己指導型学習の可能性を探究する。
提案手法は,各タスクにアダプタと呼ばれる中間層を追加し,現在のタスクを学習しながら,前モデルからの知識を効率的に抽出する。
私たちは英語、イタリア語、ロシア語のスクリプトで最先端のパフォーマンスを達成しましたが、タスクごとにいくつかのパラメータしか追加していません。
論文 参考訳(メタデータ) (2023-03-16T14:27:45Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Transformer-Based Approach for Joint Handwriting and Named Entity
Recognition in Historical documents [1.7491858164568674]
本研究は,手書き文書における名前付きエンティティ認識にトランスフォーマネットワークを採用した最初のアプローチを示す。
我々は,Esposalles データベースを用いた ICDAR 2017 Information extract コンペティションにおいて,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-08T09:26:21Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。