論文の概要: Life is a Circus and We are the Clowns: Automatically Finding Analogies
between Situations and Processes
- arxiv url: http://arxiv.org/abs/2210.12197v1
- Date: Fri, 21 Oct 2022 18:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:29:25.288558
- Title: Life is a Circus and We are the Clowns: Automatically Finding Analogies
between Situations and Processes
- Title(参考訳): 人生はサーカスであり、我々は道化師である:状況と過程の類似物を自動的に見つける
- Authors: Oren Sultan, Dafna Shahaf
- Abstract要約: 多くの研究が、新しいドメインに適応できる非脆性システムにとって、アナログが鍵であることを示唆している。
アナロジーの重要性にもかかわらず、NLPコミュニティではほとんど注目されなかった。
- 参考スコア(独自算出の注目度): 12.8252101640812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analogy-making gives rise to reasoning, abstraction, flexible categorization
and counterfactual inference -- abilities lacking in even the best AI systems
today. Much research has suggested that analogies are key to non-brittle
systems that can adapt to new domains. Despite their importance, analogies
received little attention in the NLP community, with most research focusing on
simple word analogies. Work that tackled more complex analogies relied heavily
on manually constructed, hard-to-scale input representations. In this work, we
explore a more realistic, challenging setup: our input is a pair of natural
language procedural texts, describing a situation or a process (e.g., how the
heart works/how a pump works). Our goal is to automatically extract entities
and their relations from the text and find a mapping between the different
domains based on relational similarity (e.g., blood is mapped to water). We
develop an interpretable, scalable algorithm and demonstrate that it identifies
the correct mappings 87% of the time for procedural texts and 94% for stories
from cognitive-psychology literature. We show it can extract analogies from a
large dataset of procedural texts, achieving 79% precision (analogy prevalence
in data: 3%). Lastly, we demonstrate that our algorithm is robust to
paraphrasing the input texts.
- Abstract(参考訳): アナロジー作りは、推論、抽象化、フレキシブルな分類、反事実推論といった、今日の最高のaiシステムにも欠けている能力を生み出します。
多くの研究が、新しいドメインに適応できる非脆性システムにとって、アナログが鍵であることを示唆している。
アナロジーの重要性にもかかわらず、NLPコミュニティではほとんど注目されず、ほとんどの研究は単純な単語のアナロジーに焦点を当てた。
より複雑な類似に対処する作業は手作業で構築された大規模な入力表現に大きく依存した。
私たちの入力は、状況やプロセス(例えば、心臓がどのように機能するか、ポンプがどのように機能するか)を記述する、自然言語の手続きテキストのペアです。
私たちの目標は、テキストからエンティティとその関係を自動的に抽出し、関係の類似性に基づいて異なるドメイン間のマッピングを見つけることです(例えば、血液は水にマッピングされます)。
解釈可能でスケーラブルなアルゴリズムを開発し,手続きテキストの87%,認知心理学文献の94%の正確なマッピングを識別できることを実証した。
手続きテキストの大規模なデータセットから類似物を抽出し、79%の精度(データにおける解析精度:3%)が得られることを示す。
最後に,提案アルゴリズムは入力テキストの表現に頑健であることを示す。
関連論文リスト
- ParallelPARC: A Scalable Pipeline for Generating Natural-Language
Analogies [18.4891314659345]
複雑な段落に基づくアナロジーを作成するパイプラインを開発する。
我々は人によって検証された金のセットと銀のセットを自動生成する。
私たちは、銀のセットがトレーニングモデルに役立つことを実証します。
論文 参考訳(メタデータ) (2024-03-02T08:53:40Z) - FAME: Flexible, Scalable Analogy Mappings Engine [22.464249291871937]
この作業では、入力要求を緩和し、マッピングされるエンティティの名前のみを要求する。
我々は、自動的にコモンセンス表現を抽出し、それらを使ってエンティティ間のマッピングを識別する。
我々のフレームワークは部分的な類似を処理でき、新しいエンティティを追加することを提案できる。
論文 参考訳(メタデータ) (2023-11-03T12:08:02Z) - StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - VASR: Visual Analogies of Situation Recognition [21.114629154550364]
環境認識のビジュアルアナロジ(Visual Analogies of situation Recognition)を新たに導入する。
我々はシーンの理解を必要とする複雑な類似に取り組みます。
データのサンプルに対するクラウドソースアノテーションは、人間が80%のデータセットラベルに同意していることを示している。
我々の実験は、邪魔者がランダムに選択された時に最先端のモデルがうまく機能することを示したが、慎重に選択された邪魔者には耐え難い。
論文 参考訳(メタデータ) (2022-12-08T20:08:49Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。