論文の概要: Task Programming: Learning Data Efficient Behavior Representations
- arxiv url: http://arxiv.org/abs/2011.13917v2
- Date: Mon, 29 Mar 2021 17:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:45:40.533293
- Title: Task Programming: Learning Data Efficient Behavior Representations
- Title(参考訳): タスクプログラミング: 効率的な行動表現の学習
- Authors: Jennifer J. Sun, Ann Kennedy, Eric Zhan, David J. Anderson, Yisong
Yue, Pietro Perona
- Abstract要約: 本稿では,行動分析のためのアノテーションサンプルの効率的な軌道埋め込み法であるTREBAについて述べる。
私たちのメソッドのタスクは、"タスクプログラミング"と呼ばれるプロセスを通じて、ドメインの専門家によって効率的に設計できます。
本研究は,マウスとショウジョウバエの2つの領域にまたがる3つのデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 44.244695150594815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Specialized domain knowledge is often necessary to accurately annotate
training sets for in-depth analysis, but can be burdensome and time-consuming
to acquire from domain experts. This issue arises prominently in automated
behavior analysis, in which agent movements or actions of interest are detected
from video tracking data. To reduce annotation effort, we present TREBA: a
method to learn annotation-sample efficient trajectory embedding for behavior
analysis, based on multi-task self-supervised learning. The tasks in our method
can be efficiently engineered by domain experts through a process we call "task
programming", which uses programs to explicitly encode structured knowledge
from domain experts. Total domain expert effort can be reduced by exchanging
data annotation time for the construction of a small number of programmed
tasks. We evaluate this trade-off using data from behavioral neuroscience, in
which specialized domain knowledge is used to identify behaviors. We present
experimental results in three datasets across two domains: mice and fruit
flies. Using embeddings from TREBA, we reduce annotation burden by up to a
factor of 10 without compromising accuracy compared to state-of-the-art
features. Our results thus suggest that task programming and self-supervision
can be an effective way to reduce annotation effort for domain experts.
- Abstract(参考訳): 専門的なドメイン知識は、深く分析するためのトレーニングセットを正確にアノテートするために必要となることが多いが、ドメインの専門家から取得するのに手間がかかり、時間がかかります。
この問題は、ビデオ追跡データからエージェントの動きや興味のある行動を検出する自動行動分析において顕著に発生する。
アノテーションの労力を減らすため,マルチタスクの自己教師型学習に基づく行動分析のためのアノテーションサンプルの効率的な軌道埋め込みを学習するTREBAを提案する。
私たちのメソッドのタスクは、"タスクプログラミング(task programming)"と呼ばれるプロセスを通じて、ドメインの専門家によって効率的に設計できます。
少数のプログラムされたタスクを構築するためのデータアノテーション時間を交換することで、ドメインエキスパート全体の労力を削減できる。
我々は、行動神経科学のデータを用いて、このトレードオフを評価し、行動の特定に専門的なドメイン知識を用いる。
実験結果は,マウスとショウジョウバエの2つの領域にまたがる3つのデータセットから得られた。
TREBAからの埋め込みを用いて,最新の特徴と比較して精度を損なうことなく,アノテーションの負担を最大10まで軽減する。
この結果から,タスクプログラミングとセルフスーパービジョンが,ドメインエキスパートのアノテーションの労力を削減する効果的な方法であることが示唆された。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Geospatial Trajectory Generation via Efficient Abduction: Deployment for Independent Testing [1.8877926393541125]
情報(A*)探索により,移動軌跡を効率的に吸収できることが示される。
私たちはまた、正確な結果を提供するだけでなく、非常に大きなシナリオにもスケールできることを示す独自の実験について報告します。
論文 参考訳(メタデータ) (2024-07-08T23:11:47Z) - Prompt-Based Spatio-Temporal Graph Transfer Learning [22.855189872649376]
本稿では,データスカース領域における多変数タスクに適応可能なプロンプトベースのフレームワークを提案する。
2段階のパイプラインでドメインとタスクの転送を実現するために、学習可能なプロンプトを採用しています。
実験の結果,STGPは3つのタスクの予測,クリギング,外挿において,最先端のベースラインよりも10.7%向上していることがわかった。
論文 参考訳(メタデータ) (2024-05-21T02:06:40Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Learning from Guided Play: Improving Exploration for Adversarial
Imitation Learning with Simple Auxiliary Tasks [8.320969283401233]
本研究は, 探索における標準的, ナイーブなアプローチが, 最適な局所的最大値として表れることを示す。
複数の探索的補助的タスクのエキスパートによるデモンストレーションを活用するフレームワークであるLfGP(Learning from Guided Play)を提示する。
論文 参考訳(メタデータ) (2022-12-30T20:38:54Z) - I Know Therefore I Score: Label-Free Crafting of Scoring Functions using
Constraints Based on Domain Expertise [6.26476800426345]
多次元数値データからスコアリング関数を学習するためのラベルなし実践的手法を提案する。
このアプローチでは、ドメインエキスパートの洞察とビジネスルールを、容易に観察可能で特定可能な制約という形で取り入れています。
このような制約を、スコアリング関数を学習しながら同時に最適化された損失関数に変換する。
論文 参考訳(メタデータ) (2022-03-18T17:51:20Z) - Streaming Self-Training via Domain-Agnostic Unlabeled Images [62.57647373581592]
視覚認識モデル学習の過程を民主化することを目的としたストリーミング自己学習(SST)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は継続的なプロセスであり、学習更新のスケジュールを構築することで行うことができる。
論文 参考訳(メタデータ) (2021-04-07T17:58:39Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。