論文の概要: PeTra: A Sparsely Supervised Memory Model for People Tracking
- arxiv url: http://arxiv.org/abs/2005.02990v1
- Date: Wed, 6 May 2020 17:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 04:58:03.547790
- Title: PeTra: A Sparsely Supervised Memory Model for People Tracking
- Title(参考訳): petra: 人追跡のための疎密な教師付きメモリモデル
- Authors: Shubham Toshniwal, Allyson Ettinger, Kevin Gimpel, and Karen Livescu
- Abstract要約: メモリスロット内のエンティティを追跡するように設計されたメモリ拡張ニューラルネットワークであるPeTraを提案する。
我々は、重要なモデリング選択を経験的に比較し、強い性能を維持しながら、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
- 参考スコア(独自算出の注目度): 50.98911178059019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose PeTra, a memory-augmented neural network designed to track
entities in its memory slots. PeTra is trained using sparse annotation from the
GAP pronoun resolution dataset and outperforms a prior memory model on the task
while using a simpler architecture. We empirically compare key modeling
choices, finding that we can simplify several aspects of the design of the
memory module while retaining strong performance. To measure the people
tracking capability of memory models, we (a) propose a new diagnostic
evaluation based on counting the number of unique entities in text, and (b)
conduct a small scale human evaluation to compare evidence of people tracking
in the memory logs of PeTra relative to a previous approach. PeTra is highly
effective in both evaluations, demonstrating its ability to track people in its
memory despite being trained with limited annotation.
- Abstract(参考訳): 我々は,メモリスロット内のエンティティを追跡するメモリ指定ニューラルネットワークであるpetraを提案する。
PeTraは、GAP代名詞解決データセットからのスパースアノテーションを使用してトレーニングされ、より単純なアーキテクチャを使用してタスクの前のメモリモデルより優れている。
キーモデリングの選択を実証的に比較し、強力なパフォーマンスを維持しつつ、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
記憶モデルの人物追跡能力を測定するために
(a)テキスト中のユニークなエンティティの数を数えた新しい診断評価を提案し、
b)PeTraのメモリログで追跡している人物の証拠を従来の手法と比較するため,小規模の人間による評価を行う。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
関連論文リスト
- Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Pluggable Neural Machine Translation Models via Memory-augmented Adapters [25.26982333390014]
プリトレーニングされたNMTモデルをプラガブルな方法でステアリングするためのメモリ拡張アダプタを提案する。
具体的には,ユーザが提供するテキストサンプルに基づいて,多粒性メモリを構築する。
また,NMTモデルとメモリ間の素早い依存関係を低減するため,メモリドロップアウトを用いたトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-12T09:23:41Z) - Eigen Memory Tree [27.33148786536804]
この研究は、シーケンシャルな学習シナリオのための新しいオンラインメモリモデルであるEigen Memory Tree (EMT)を紹介している。
我々は,EMTが既存のオンラインメモリの手法より優れていることを示すとともに,その性能を劇的に向上させるハイブリッド化EMTパラメトリックアルゴリズムを提供する。
本研究は,OpenMLリポジトリの206データセットを用いて,メモリのバウンダリと無限のバウンダリの両方で検証した。
論文 参考訳(メタデータ) (2022-10-25T14:57:41Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。