論文の概要: InstructNet: A Novel Approach for Multi-Label Instruction Classification through Advanced Deep Learning
- arxiv url: http://arxiv.org/abs/2512.18301v1
- Date: Sat, 20 Dec 2025 10:16:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.277914
- Title: InstructNet: A Novel Approach for Multi-Label Instruction Classification through Advanced Deep Learning
- Title(参考訳): InstructNet: 高度深層学習によるマルチラベル指導分類の新しいアプローチ
- Authors: Tanjim Taharat Aurpa, Md Shoaib Ahmed, Md Mahbubur Rahman, Md. Golam Moazzam,
- Abstract要約: 本研究では、How Toの記事を用いて、複数ラベルの命令カテゴリを決定する。
我々はこの研究をwikiHowから11,121の観測結果からなるデータセットで実現し、各レコードには複数のカテゴリがある。
XLNetアーキテクチャの実装は前例のない性能を示し、精度は97.30%、マイクロおよびマクロ平均スコアは89.02%、マクロ平均スコアは93%である。
- 参考スコア(独自算出の注目度): 6.169104880176003
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: People use search engines for various topics and items, from daily essentials to more aspirational and specialized objects. Therefore, search engines have taken over as peoples preferred resource. The How To prefix has become familiar and widely used in various search styles to find solutions to particular problems. This search allows people to find sequential instructions by providing detailed guidelines to accomplish specific tasks. Categorizing instructional text is also essential for task-oriented learning and creating knowledge bases. This study uses the How To articles to determine the multi-label instruction category. We have brought this work with a dataset comprising 11,121 observations from wikiHow, where each record has multiple categories. To find out the multi-label category meticulously, we employ some transformer-based deep neural architectures, such as Generalized Autoregressive Pretraining for Language Understanding (XLNet), Bidirectional Encoder Representation from Transformers (BERT), etc. In our multi-label instruction classification process, we have reckoned our proposed architectures using accuracy and macro f1-score as the performance metrics. This thorough evaluation showed us much about our strategys strengths and drawbacks. Specifically, our implementation of the XLNet architecture has demonstrated unprecedented performance, achieving an accuracy of 97.30% and micro and macro average scores of 89.02% and 93%, a noteworthy accomplishment in multi-label classification. This high level of accuracy and macro average score is a testament to the effectiveness of the XLNet architecture in our proposed InstructNet approach. By employing a multi-level strategy in our evaluation process, we have gained a more comprehensive knowledge of the effectiveness of our proposed architectures and identified areas for forthcoming improvement and refinement.
- Abstract(参考訳): 人々は、日々の必須事項から、より願望的で専門的なオブジェクトまで、さまざまなトピックやアイテムに検索エンジンを使用します。
そのため、検索エンジンは人々の好む資源として引き継がれている。
How Toプレフィックスは、特定の問題に対する解決策を見つけるために、様々な検索スタイルで親しみやすく広く使われている。
この検索では、特定のタスクを達成するための詳細なガイドラインを提供することで、シーケンシャルな指示を見つけることができる。
教示テキストの分類は、タスク指向の学習や知識ベースの作成にも不可欠である。
本研究では、How Toの記事を用いて、複数ラベルの命令カテゴリを決定する。
我々はこの研究をwikiHowから11,121の観測結果からなるデータセットで実現し、各レコードには複数のカテゴリがある。
言語理解のための汎用オートレグレッシブ・プレトレーニング(XLNet)や、変換器からの双方向エンコーダ表現(BERT)など、トランスフォーマーベースのディープ・ニューラル・アーキテクチャを慎重に調べる。
マルチラベル命令分類プロセスでは,性能指標として精度とマクロf1スコアを用いたアーキテクチャを提案する。
この徹底的な評価は、私たちの戦略の強みと欠点について多くのことを示しました。
具体的には,XLNetアーキテクチャの実装により,97.30%の精度,89.02%,93%のマイクロおよびマクロ平均スコアを実現した。
この高い精度とマクロ平均スコアは,提案したInstructNetアプローチにおけるXLNetアーキテクチャの有効性の証明である。
評価プロセスにマルチレベル戦略を採用することにより,提案アーキテクチャの有効性に関するより包括的な知識が得られ,今後の改善と改良の分野が特定された。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Harnessing the Power of Beta Scoring in Deep Active Learning for
Multi-Label Text Classification [6.662167018900634]
本研究は,期待損失削減フレームワーク内の適切なスコアリングルールのベータファミリを活かした,新たなアクティブな学習戦略を提案する。
これはBeta Scoring Rulesを使って期待されるスコアの増加を計算し、次にサンプルベクトル表現に変換する。
合成データセットと実データセットの総合的な評価により,複数ラベルのテキスト分類において,確立された取得技術を上回る性能が得られた。
論文 参考訳(メタデータ) (2024-01-15T00:06:24Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Association Graph Learning for Multi-Task Classification with Category
Shifts [68.58829338426712]
関連する分類タスクが同じラベル空間を共有し、同時に学習されるマルチタスク分類に焦点を当てる。
我々は、不足クラスのためのタスク間で知識を伝達する関連グラフを学習する。
我々の手法は代表的基準よりも一貫して性能が良い。
論文 参考訳(メタデータ) (2022-10-10T12:37:41Z) - Active metric learning and classification using similarity queries [21.589707834542338]
本稿では、キーコンポーネントが類似性を反映したデータの表現を学習している問題に対して、新しい統合クエリフレームワークを適用することができることを示す。
提案手法の有効性を,アクティブなメトリック学習とアクティブな分類という2つの課題で実証する。
論文 参考訳(メタデータ) (2022-02-04T03:34:29Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Leveraging Class Hierarchies with Metric-Guided Prototype Learning [5.070542698701158]
多くの分類タスクでは、ターゲットクラスのセットは階層に分類できる。
この構造はクラス間の意味的距離を誘導し、コスト行列の形で要約することができる。
本稿では,この指標を原型ネットワークの監視に組み込むことにより,階層型クラス構造をモデル化することを提案する。
論文 参考訳(メタデータ) (2020-07-06T20:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。