論文の概要: Disentangling Extraction and Reasoning in Multi-hop Spatial Reasoning
- arxiv url: http://arxiv.org/abs/2310.16731v1
- Date: Wed, 25 Oct 2023 16:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 13:52:47.982718
- Title: Disentangling Extraction and Reasoning in Multi-hop Spatial Reasoning
- Title(参考訳): マルチホップ空間推論における解法抽出と推論
- Authors: Roshanak Mirzaee, Parisa Kordjamshidi
- Abstract要約: 我々は,この課題に対処するモデルにおいて,情報抽出と推論のプロセスを切り離すことの潜在的な利点について検討する。
実験結果から,現実的なデータ領域におけるモデルの一般化性を高める能力を示すとともに,解離の有効性を一貫して示している。
- 参考スコア(独自算出の注目度): 22.29014955741122
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spatial reasoning over text is challenging as the models not only need to
extract the direct spatial information from the text but also reason over those
and infer implicit spatial relations. Recent studies highlight the struggles
even large language models encounter when it comes to performing spatial
reasoning over text. In this paper, we explore the potential benefits of
disentangling the processes of information extraction and reasoning in models
to address this challenge. To explore this, we design various models that
disentangle extraction and reasoning(either symbolic or neural) and compare
them with state-of-the-art(SOTA) baselines with no explicit design for these
parts. Our experimental results consistently demonstrate the efficacy of
disentangling, showcasing its ability to enhance models' generalizability
within realistic data domains.
- Abstract(参考訳): テキスト上での空間的推論は、モデルがテキストから直接的な空間的情報を抽出するだけでなく、それに対する推論や暗黙的な空間的関係の推論も必要となるため、難しい。
近年の研究では、テキストよりも空間的推論を行う上で、大きな言語モデルが直面する困難が強調されている。
本稿では,この課題に対処するモデルにおいて,情報抽出と推論のプロセスを切り離すことの潜在的な利点について検討する。
そこで我々は,抽出と推論(記号的あるいはニューラル的)をアンタングルする様々なモデルを設計し,それらの部分に対する明示的な設計を伴わない,最先端(SOTA)ベースラインと比較する。
我々の実験結果は、現実的なデータ領域におけるモデルの一般化性を高める能力を示すとともに、解離の有効性を一貫して示している。
関連論文リスト
- Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Neuro-symbolic Training for Reasoning over Spatial Language [17.901249830817882]
本稿では,推論の論理的ルールを制約として活用できる,ニューロシンボリックな手法による学習言語モデルを提案する。
テキストによる空間的推論という課題に焦点をあてる。
論文 参考訳(メタデータ) (2024-06-19T20:47:36Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Challenges in Domain-Specific Abstractive Summarization and How to
Overcome them [0.6021787236982659]
大規模言語モデルは、ドメイン固有の抽象的テキスト要約のようなタスクに使用される際のいくつかの制限を示す。
本稿では,これら3つの制約を抽象的テキスト要約の文脈における研究問題として挙げる。
論文 参考訳(メタデータ) (2023-07-03T12:26:44Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - What if This Modified That? Syntactic Interventions via Counterfactual
Embeddings [19.3614797257652]
先行技術は、プローブを通してモデル表現内の有意義な特性を明らかにすることを目的としているが、そのようなプローブがモデルが実際に使っている情報をどのように忠実に表現しているかは明らかではない。
本稿では,因果解析にインスパイアされた手法を提案する。
本手法の実験では,下流予測タスクにおいて,BERTをベースとしたモデルでは木間距離のような構文表現が用いられていることを示す。
論文 参考訳(メタデータ) (2021-05-28T17:27:04Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。