論文の概要: Action Recognition and State Change Prediction in a Recipe Understanding
Task Using a Lightweight Neural Network Model
- arxiv url: http://arxiv.org/abs/2001.08665v1
- Date: Thu, 23 Jan 2020 17:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 10:12:09.950776
- Title: Action Recognition and State Change Prediction in a Recipe Understanding
Task Using a Lightweight Neural Network Model
- Title(参考訳): 軽量ニューラルネットワークモデルを用いたレシピ理解タスクにおける行動認識と状態変化予測
- Authors: Qing Wan, Yoonsuck Choe
- Abstract要約: 本稿では,行動認識と状態変化予測を分離する単純化されたニューラルネットワークモデルを提案する。
これにより、学習は互いに間接的に影響を及ぼすことができる。
- 参考スコア(独自算出の注目度): 8.49031088470346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider a natural language sentence describing a specific step in a food
recipe. In such instructions, recognizing actions (such as press, bake, etc.)
and the resulting changes in the state of the ingredients (shape molded,
custard cooked, temperature hot, etc.) is a challenging task. One way to cope
with this challenge is to explicitly model a simulator module that applies
actions to entities and predicts the resulting outcome (Bosselut et al. 2018).
However, such a model can be unnecessarily complex. In this paper, we propose a
simplified neural network model that separates action recognition and state
change prediction, while coupling the two through a novel loss function. This
allows learning to indirectly influence each other. Our model, although
simpler, achieves higher state change prediction performance (67% average
accuracy for ours vs. 55% in (Bosselut et al. 2018)) and takes fewer samples to
train (10K ours vs. 65K+ by (Bosselut et al. 2018)).
- Abstract(参考訳): 食品レシピの特定のステップを記述する自然言語文を考えてみましょう。
このような指示では、アクション(プレス、ベークなど)の認識や、材料(成形品、カスタード、温度温度など)の状態の変化が困難な課題である。
この課題に対処するひとつの方法は、エンティティにアクションを適用して結果を予測するシミュレータモジュールを明示的にモデル化することだ(Bosselut et al. 2018)。
しかし、そのようなモデルは不必要に複雑である。
本稿では,動作認識と状態変化予測を分離した簡易ニューラルネットワークモデルを提案する。
これにより、学習は間接的に相互に影響を及ぼすことができる。
私たちのモデルはシンプルではあるが、より高い状態変化予測性能(私たちの平均精度の67%)と55%(bosselut et al. 2018)を実現し、トレーニングに必要なサンプルを少なくしています(10k ours vs. 65k+ by (bosselut et al. 2018)。
関連論文リスト
- Language models scale reliably with over-training and on downstream tasks [121.69867718185125]
スケーリング法則は、高価なトレーニング実行を引き出すための有用なガイドである。
しかし、現在の研究と言語モデルがどのように訓練されているかには差がある。
対照的に、スケーリング法則は主に推論における損失を予測するが、モデルは通常下流のタスクのパフォーマンスで比較される。
論文 参考訳(メタデータ) (2024-03-13T13:54:00Z) - Could Giant Pretrained Image Models Extract Universal Representations? [94.97056702288317]
本稿では,多種多様なコンピュータビジョンタスクに適用した凍結事前学習モデルについて述べる。
私たちの研究は、この凍結した設定にどのような事前学習タスクが最適か、凍結した設定を様々な下流タスクに柔軟にする方法、より大きなモデルサイズの影響について、質問に答えています。
論文 参考訳(メタデータ) (2022-11-03T17:57:10Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Cooking Object's State Identification Without Using Pretrained Model [0.0]
本稿では,CNNを提案し,それをゼロから訓練した。
モデルは、調理状態認識チャレンジからデータセット上でトレーニングされ、テストされる。
我々のモデルは、目に見えないテストデータセットで65.8%の精度を達成する。
論文 参考訳(メタデータ) (2021-03-03T10:33:27Z) - On the Reproducibility of Neural Network Predictions [52.47827424679645]
そこで本研究では, チャーン問題について検討し, 原因因子を同定し, 緩和する2つの簡単な方法を提案する。
最初に、標準的な画像分類タスクであっても、チャーンが問題であることを示す。
我々は,予測信頼度を高めるために,エントロピー正規化器を提案する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
論文 参考訳(メタデータ) (2021-02-05T18:51:01Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。