論文の概要: Reasoning for Hierarchical Text Classification: The Case of Patents
- arxiv url: http://arxiv.org/abs/2510.07167v1
- Date: Wed, 08 Oct 2025 16:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.609726
- Title: Reasoning for Hierarchical Text Classification: The Case of Patents
- Title(参考訳): 階層的テキスト分類の理由:特許の場合
- Authors: Lekang Jiang, Wenjun Sun, Stephan Goetz,
- Abstract要約: Reasoning for Hierarchical Classification (RHC)は、HTCをステップバイステップの推論タスクとして再編成する新しいフレームワークである。
RHCは、出力をチェーン・オブ・ソート(CoT)推論形式と強化学習段階に整合させるコールドスタート段階という2つの段階で、大きな言語モデルを訓練する。
- 参考スコア(独自算出の注目度): 3.536605202672355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical text classification (HTC) assigns documents to multiple levels of a pre-defined taxonomy. Automated patent subject classification represents one of the hardest HTC scenarios because of domain knowledge difficulty and a huge number of labels. Prior approaches only output a flat label set, which offers little insight into the reason behind predictions. Therefore, we propose Reasoning for Hierarchical Classification (RHC), a novel framework that reformulates HTC as a step-by-step reasoning task to sequentially deduce hierarchical labels. RHC trains large language models (LLMs) in two stages: a cold-start stage that aligns outputs with chain-of-thought (CoT) reasoning format and a reinforcement learning (RL) stage to enhance multi-step reasoning ability. RHC demonstrates four advantages in our experiments. (1) Effectiveness: RHC surpasses previous baselines and outperforms the supervised fine-tuning counterparts by approximately 3% in accuracy and macro F1. (2) Explainability: RHC produces natural-language justifications before prediction to facilitate human inspection. (3) Scalability: RHC scales favorably with model size with larger gains compared to standard fine-tuning. (4) Applicability: Beyond patents, we further demonstrate that RHC achieves state-of-the-art performance on other widely used HTC benchmarks, which highlights its broad applicability.
- Abstract(参考訳): 階層的テキスト分類(HTC)は、あらかじめ定義された分類の複数のレベルに文書を割り当てる。
自動特許対象分類は、ドメイン知識の難しさと膨大な数のラベルがあるため、HTCの最も難しいシナリオの1つである。
従来のアプローチでは、フラットなラベルセットを出力するだけで、予測の背後にある理由についてはほとんど洞察が得られない。
階層分類のための推論(Reasoning for Hierarchical Classification, RHC)を提案する。
RHCは大規模言語モデル(LLM)を2段階に分けて訓練する: コールドスタートステージは出力をチェーン・オブ・ソート(CoT)推論形式と強化学習(RL)段階に整合させ、多段階推論能力を高める。
RHCは実験で4つの利点を示します。
1) 有効性: RHCは従来のベースラインを超え, 教師付き微調整の精度とマクロF1を約3%向上させる。
2) 説明可能性: RHCは人間の検査を容易にするために予測の前に自然言語の正当性を生成する。
(3)スケーラビリティ: RHCは標準の微調整に比べて大きなゲインを持つモデルサイズで好適にスケールする。
(4) 適用可能性:特許を超えて、RHCが他の広く使用されているHTCベンチマークで最先端のパフォーマンスを達成することをさらに実証する。
関連論文リスト
- Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - AxBench: Steering LLMs? Even Simple Baselines Outperform Sparse Autoencoders [73.37603699731329]
ステアリングと概念検出のための大規模ベンチマークであるAxBenchを紹介する。
ステアリングでは、すべての既存のメソッドを高速に処理し、次いで微調整する。
概念検出では、差分のような表現に基づく手法が最善を尽くす。
論文 参考訳(メタデータ) (2025-01-28T18:51:24Z) - SVTRv2: CTC Beats Encoder-Decoder Models in Scene Text Recognition [77.28814034644287]
テキストの不規則性や言語コンテキストのモデル化が可能なCTCモデルであるSVTRv2を提案する。
我々は,SVTRv2を標準ベンチマークと最近のベンチマークの両方で広範囲に評価した。
SVTRv2は精度と推論速度の点でほとんどのEDTRを超越している。
論文 参考訳(メタデータ) (2024-11-24T14:21:35Z) - Domain-Hierarchy Adaptation via Chain of Iterative Reasoning for Few-shot Hierarchical Text Classification [13.320591504692574]
我々は,PLMの知識を非構造化の方法で下流階層に適応させるために,HTCの問題を数ショット設定で研究する。
階層的条件付き反復ランダムフィールド (HierICRF) という単純な手法を用いて、最もドメインが混在する方向を探索する。
HierICRFによるプロンプトは、平均的なMicro-F1の28.80%から1.50%、Macro-F1の36.29%から1.5%で、HTCのパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2024-07-12T03:21:57Z) - Retrieval-style In-Context Learning for Few-shot Hierarchical Text Classification [34.06292178703825]
大規模な言語モデル(LLM)を備えた最初のICLベースのフレームワークを,数ショットのHTC向けに紹介する。
検索データベースを利用して、関連する実演を識別し、多層階層ラベルを管理するための反復的なポリシーを用いる。
数ショットのHTCで最先端の成果が得られます。
論文 参考訳(メタデータ) (2024-06-25T13:19:41Z) - Hierarchical Verbalizer for Few-Shot Hierarchical Text Classification [10.578682558356473]
階層的テキスト分類(HTC)は、低リソースまたは少数ショットの設定を考慮すると、パフォーマンスが低下する。
本稿では,HTC を単一あるいは複数ラベルの分類問題として扱う多言語フレームワークである階層型動詞化器 (HierVerb) を提案する。
このように、HierVerbはラベル階層の知識を動詞化子に融合させ、グラフエンコーダを通じて階層を注入する者よりも著しく優れています。
論文 参考訳(メタデータ) (2023-05-26T12:41:49Z) - A Theoretically Grounded Benchmark for Evaluating Machine Commonsense [6.725087407394836]
理論的に答えるコモンセンス推論(TG-CSR)は差別的な質問応答に基づいているが、コモンセンスの多様な側面を評価するために設計された。
TG-CSRは、ゴードンとホッブズによるコモンセンスの実行可能な理論として最初に提案されたコモンセンス圏のサブセットに基づいている。
予備的な結果は、このベンチマークが差別的なCSR質問応答タスクのために設計された高度な言語表現モデルに対してさえ挑戦的であることを示唆している。
論文 参考訳(メタデータ) (2022-03-23T04:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。