論文の概要: Scene Graph Modification Based on Natural Language Commands
- arxiv url: http://arxiv.org/abs/2010.02591v1
- Date: Tue, 6 Oct 2020 10:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:57:09.928558
- Title: Scene Graph Modification Based on Natural Language Commands
- Title(参考訳): 自然言語コマンドに基づくシーングラフの修正
- Authors: Xuanli He, Quan Hung Tran, Gholamreza Haffari, Walter Chang, Trung
Bui, Zhe Lin, Franck Dernoncourt, Nhan Dam
- Abstract要約: グラフやパースツリーのような構造化表現は多くの自然言語処理システムにおいて重要な役割を果たす。
本稿では,新しい利用者の指示に応じて既存のグラフの更新方法を学ぶ必要がある,グラフ修正の新たな課題について考察する。
- 参考スコア(独自算出の注目度): 90.0662899539489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured representations like graphs and parse trees play a crucial role in
many Natural Language Processing systems. In recent years, the advancements in
multi-turn user interfaces necessitate the need for controlling and updating
these structured representations given new sources of information. Although
there have been many efforts focusing on improving the performance of the
parsers that map text to graphs or parse trees, very few have explored the
problem of directly manipulating these representations. In this paper, we
explore the novel problem of graph modification, where the systems need to
learn how to update an existing scene graph given a new user's command. Our
novel models based on graph-based sparse transformer and cross attention
information fusion outperform previous systems adapted from the machine
translation and graph generation literature. We further contribute our large
graph modification datasets to the research community to encourage future
research for this new problem.
- Abstract(参考訳): グラフやパースツリーのような構造化表現は多くの自然言語処理システムにおいて重要な役割を果たす。
近年,マルチターンユーザインタフェースの進歩は,情報ソースを付加した構造化表現を制御・更新する必要性が高まっている。
グラフにテキストをマップしたり、ツリーをパースするパーサーのパフォーマンス向上に多くの取り組みがなされているが、これらの表現を直接操作する問題を探究する者はごくわずかである。
本稿では,既存のシーングラフの更新方法を学習する上で,新たなユーザの指示によって学習する必要があるグラフ修正の新たな問題について検討する。
グラフベーススパース変換器とクロスアテンション情報融合に基づく新しいモデルでは,機械翻訳やグラフ生成の文献に適合した従来のシステムよりも優れていた。
我々はさらに,この新たな問題の今後の研究を促進するために,大規模なグラフ修正データセットを研究コミュニティに寄贈する。
関連論文リスト
- When Graph Data Meets Multimodal: A New Paradigm for Graph Understanding
and Reasoning [54.84870836443311]
本稿では,画像エンコーディングとマルチモーダル技術を統合することで,グラフデータの理解と推論を行う新しいパラダイムを提案する。
このアプローチは, GPT-4Vの高度な機能を利用して, 命令応答形式によるグラフデータの理解を可能にする。
研究は、このパラダイムを様々なグラフタイプで評価し、特に中国のOCRパフォーマンスと複雑な推論タスクにおいて、モデルの強みと弱みを強調した。
論文 参考訳(メタデータ) (2023-12-16T08:14:11Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Scene Graph Modification as Incremental Structure Expanding [61.84291817776118]
本研究では,既存のシーングラフを自然言語クエリに基づいて更新する方法を学習するために,シーングラフ修正(SGM)に注目した。
インクリメンタル構造拡張(ISE)の導入によるグラフ拡張タスクとしてのSGM
既存のデータセットよりも複雑なクエリと大きなシーングラフを含む、挑戦的なデータセットを構築します。
論文 参考訳(メタデータ) (2022-09-15T16:26:14Z) - GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text
Generation [3.593955557310285]
KG-to-text生成の最近の改善は、微調整タスクの性能を高めるために設計された補助的な事前訓練タスクによるものである。
ここでは、既存の事前学習言語モデルにグラフ認識要素を融合させることで、最先端のモデルより優れ、追加の事前学習タスクによって課されるギャップを埋めることができることを示す。
論文 参考訳(メタデータ) (2022-04-13T23:53:37Z) - Stage-wise Fine-tuning for Graph-to-Text Generation [25.379346921398326]
グラフからテキストへの生成は、構造化グラフエンコーダよりも優れたパフォーマンスを達成するための事前学習言語モデル(plm)の恩恵を受けている。
本研究では, ウィキペディアで最初に微調整を行い, グラフ・テキスト生成に適応する構造化グラフ・トゥ・テキストモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T17:15:29Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。