論文の概要: Meeting Action Item Detection with Regularized Context Modeling
- arxiv url: http://arxiv.org/abs/2303.16763v1
- Date: Mon, 27 Mar 2023 03:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:22:44.657233
- Title: Meeting Action Item Detection with Regularized Context Modeling
- Title(参考訳): 正規化コンテキストモデリングによる会議行動項目の検出
- Authors: Jiaqing Liu, Chong Deng, Qinglin Zhang, Qian Chen, Wen Wang
- Abstract要約: ミーティングのトランスクリプトにおけるアクションアイテムは、ミーティング後のTo-Doタスクを管理するために重要です。
我々は、手動のアクション項目アノテーションを用いた最初の中国のミーティングコーパスを構築し、リリースする。
コントラスト学習により局所的・グローバルな文脈を両立させるコンテキストドロップ手法を提案する。
- 参考スコア(独自算出の注目度): 4.029996595240594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meetings are increasingly important for collaborations. Action items in
meeting transcripts are crucial for managing post-meeting to-do tasks, which
usually are summarized laboriously. The Action Item Detection task aims to
automatically detect meeting content associated with action items. However,
datasets manually annotated with action item detection labels are scarce and in
small scale. We construct and release the first Chinese meeting corpus with
manual action item annotations. In addition, we propose a Context-Drop approach
to utilize both local and global contexts by contrastive learning, and achieve
better accuracy and robustness for action item detection. We also propose a
Lightweight Model Ensemble method to exploit different pre-trained models.
Experimental results on our Chinese meeting corpus and the English AMI corpus
demonstrate the effectiveness of the proposed approaches.
- Abstract(参考訳): コラボレーションにはミーティングがますます重要です。
ミーティングの書き起こしにおけるアクションアイテムは、ミーティング後のto-doタスクを管理するのに不可欠です。
Action Item Detectionタスクは、アクションアイテムに関連する会議コンテンツを自動的に検出することを目的としている。
しかし、手動でアクションアイテム検出ラベルに注釈を付けるデータセットは少なく、小規模である。
手動アクションアイテムアノテーションを備えた最初の中国語会議コーパスを構築し,公開する。
さらに,コントラスト学習による局所的コンテキストとグローバルなコンテキストの両方を活用したコンテキストドロップアプローチを提案し,アクション項目検出のための精度とロバスト性の向上を実現する。
また,様々な事前学習モデルを利用する軽量モデルアンサンブル法を提案する。
提案手法の有効性を示すために,中国語会議コーパスと英語amiコーパスを用いた実験を行った。
関連論文リスト
- Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - Simultaneous Detection and Interaction Reasoning for Object-Centric Action Recognition [21.655278000690686]
エンドツーエンドのオブジェクト中心のアクション認識フレームワークを提案する。
同時に1つのステージで検出と相互作用の推論を行う。
我々はSomes-ElseとIkea-Assemblyという2つのデータセットで実験を行う。
論文 参考訳(メタデータ) (2024-04-18T05:06:12Z) - Automatic Interaction and Activity Recognition from Videos of Human
Manual Demonstrations with Application to Anomaly Detection [0.0]
本稿では、シーングラフを利用して、動きパターンとコンテキストを同時に処理しながら、画像シーケンスから重要な相互作用特徴を抽出する。
イベントベースの自動ビデオセグメンテーションとクラスタリングを導入し、同様のイベントをグループ化して、監視されたアクティビティが正しく実行されるかどうかを検出する。
論文 参考訳(メタデータ) (2023-04-19T16:15:23Z) - Knowledge Prompting for Few-shot Action Recognition [20.973999078271483]
本稿では,知識プロンプトと呼ばれるシンプルで効果的な手法を提案し,数発の分類のための強力な視覚言語モデルを提案する。
まず、アクションの大規模言語記述をテキスト提案として定義し、アクション知識ベースを構築する。
我々は、これらのテキスト提案をビデオフレームと共に事前学習された視覚言語モデルに入力し、各フレームに対する提案の一致するスコアを生成する。
6つのベンチマークデータセットに対する大規模な実験により、我々の手法は一般に最先端の性能を達成し、訓練のオーバーヘッドを0.001に減らした。
論文 参考訳(メタデータ) (2022-11-22T06:05:17Z) - Active Learning with Effective Scoring Functions for Semi-Supervised
Temporal Action Localization [15.031156121516211]
本稿では,半教師型talという,滅多に研究されていない実践的な課題に焦点を当てる。
本稿では,AL-STALという効果的な能動学習手法を提案する。
実験の結果,AL-STALは既存の競争相手よりも優れ,完全教師付き学習と比較して満足度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-31T13:39:38Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Weakly Supervised Temporal Action Localization Through Learning Explicit
Subspaces for Action and Context [151.23835595907596]
ビデオレベルの監視のみの下で、アクションインスタンスの時間的開始と終了をローカライズする方法を学ぶ。
アクションとコンテキストそれぞれについて,2つの機能サブスペースを学習するフレームワークを提案する。
提案手法は3つのベンチマークで最先端のWS-TAL法より優れている。
論文 参考訳(メタデータ) (2021-03-30T08:26:53Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - A Simple Language Model for Task-Oriented Dialogue [61.84084939472287]
SimpleTODはタスク指向対話に対する単純なアプローチであり、すべてのサブタスクのリキャストで訓練された単一因果言語モデルを単一シーケンス予測問題として利用する。
これによりSimpleTODは、事前訓練されたオープンドメイン、GPT-2のような因果言語モデルからのトランスファー学習を完全に活用できる。
論文 参考訳(メタデータ) (2020-05-02T11:09:27Z) - Inferring Temporal Compositions of Actions Using Probabilistic Automata [61.09176771931052]
本稿では,動作の時間的構成を意味正規表現として表現し,確率的オートマトンを用いた推論フレームワークを提案する。
我々のアプローチは、長い範囲の複雑なアクティビティを、順序のないアトミックアクションのセットとして予測するか、自然言語文を使ってビデオを取得するという既存の研究とは異なる。
論文 参考訳(メタデータ) (2020-04-28T00:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。