論文の概要: Inducing Meaningful Units from Character Sequences with Slot Attention
- arxiv url: http://arxiv.org/abs/2102.01223v1
- Date: Mon, 1 Feb 2021 23:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:42:31.746009
- Title: Inducing Meaningful Units from Character Sequences with Slot Attention
- Title(参考訳): スロットアテンションを有する文字系列から有意義な単位を誘導する
- Authors: Melika Behjati and James Henderson
- Abstract要約: 文字列の抽象的な意味を持つ単位を学習するための教師なし分布法を提案する。
シーケンスをセグメント化するのではなく、このモデルはシーケンス内の「オブジェクト」の連続的な表現を発見する。
我々の実験は、より高い抽象レベルで意味を捉える能力において有望な結果を示す。
- 参考スコア(独自算出の注目度): 16.104939480850064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Characters do not convey meaning, but sequences of characters do. We propose
an unsupervised distributional method to learn the abstract meaning-bearing
units in a sequence of characters. Rather than segmenting the sequence, this
model discovers continuous representations of the "objects" in the sequence,
using a recently proposed architecture for object discovery in images called
Slot Attention. We train our model on different languages and evaluate the
quality of the obtained representations with probing classifiers. Our
experiments show promising results in the ability of our units to capture
meaning at a higher level of abstraction.
- Abstract(参考訳): 文字は意味を伝えないが、文字の配列はそうである。
抽象的意味保持単位を一連の文字で学習するための教師なし分布法を提案する。
このモデルはシーケンスをセグメンテーションする代わりに、最近提案されたスロットアテンションと呼ばれる画像のオブジェクト発見のためのアーキテクチャを用いて、シーケンス内の"オブジェクト"の連続的な表現を検出する。
我々は、異なる言語でモデルを訓練し、取得した表現の品質を分類器で評価する。
我々の実験は、より高い抽象レベルで意味を捉える能力において有望な結果を示す。
関連論文リスト
- How to Handle Sketch-Abstraction in Sketch-Based Image Retrieval? [127.67444974452411]
スケッチの抽象化を様々なレベルで処理できるスケッチベース画像フレームワークを提案する。
粒度レベルの抽象理解のために、検索モデルはすべての抽象レベルを等しく扱ってはならないと規定する。
私たちのAcc.@qの損失は、評価がいかに厳格であるかという点で、スケッチが焦点を絞りたり壊したりできます。
論文 参考訳(メタデータ) (2024-03-11T23:08:29Z) - Explicitly Disentangled Representations in Object-Centric Learning [0.0]
本稿では, オブジェクト中心のモデルを, 密接な形状やテクスチャ成分に偏在させる新しいアーキテクチャを提案する。
特に, オブジェクト中心のモデルを, 密接な形状やテクスチャ成分に偏在させる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-18T17:22:11Z) - Diffusion Model is Secretly a Training-free Open Vocabulary Semantic
Segmenter [47.29967666846132]
生成テキストから画像への拡散モデルは非常に効率的なオープン語彙セマンティックセマンティックセマンティクスである。
我々はDiffSegmenterという新しいトレーニング不要のアプローチを導入し、入力テキストに意味的に忠実な現実的なオブジェクトを生成する。
3つのベンチマークデータセットの大規模な実験により、提案したDiffSegmenterは、オープン語彙セマンティックセマンティックセグメンテーションの印象的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-09-06T06:31:08Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric
Learning in Videos [69.85030245036391]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - Semi-Structured Object Sequence Encoders [9.257633944317735]
本稿では,半構造化オブジェクト列に対する構造認識型入力表現の開発に焦点をあてる。
このタイプのデータは、時間とともにキーと値のペアの一連の配列として表されることが多い。
本稿では,まず各キーを独立に考慮し,時間とともに値の表現を符号化する2部手法を提案する。
論文 参考訳(メタデータ) (2023-01-03T09:19:41Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Object-Centric Learning with Slot Attention [43.684193749891506]
我々は、知覚表現と相互作用するアーキテクチャコンポーネントであるSlot Attentionモジュールを提示する。
Slot Attentionは、スロットと呼ばれるタスク依存の抽象表現を生成します。
Slot Attentionがオブジェクト中心の表現を抽出し、未知の合成を一般化できることを実証的に実証する。
論文 参考訳(メタデータ) (2020-06-26T15:31:57Z) - Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven
Cloze Reward [42.925345819778656]
本稿では,グラフ拡張と意味駆動型RewarDによる抽象要約のための新しいフレームワークであるASGARDを紹介する。
本稿では,2つのエンコーダ(シーケンシャル文書エンコーダ)とグラフ構造化エンコーダ(グラフ構造化エンコーダ)の利用を提案する。
その結果、我々のモデルは、New York TimesとCNN/Daily Mailのデータセットからの入力として、知識グラフのない変種よりもはるかに高いROUGEスコアを生成することがわかった。
論文 参考訳(メタデータ) (2020-05-03T18:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。