論文の概要: Joint Information Extraction Across Classical and Modern Chinese with Tea-MOELoRA
- arxiv url: http://arxiv.org/abs/2509.01158v3
- Date: Tue, 09 Sep 2025 07:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.783199
- Title: Joint Information Extraction Across Classical and Modern Chinese with Tea-MOELoRA
- Title(参考訳): ティーモエラを用いた古典・現代中国語間の情報抽出
- Authors: Xuemei Tang, Chengxi Yan, Jinghang Gu, Chu-Ren Huang,
- Abstract要約: Tea-MOELoRAは中国の情報抽出のためのパラメータ効率のよいマルチタスクフレームワークである。
複数のローランクなLoRA専門家が異なるIEタスクと時代を専門とし、タスク・エイア・ア・ア・ルータ機構が専門家の貢献を動的に割り当てる。
- 参考スコア(独自算出の注目度): 6.846413131554734
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Chinese information extraction (IE) involves multiple tasks across diverse temporal domains, including Classical and Modern documents. Fine-tuning a single model on heterogeneous tasks and across different eras may lead to interference and reduced performance. Therefore, in this paper, we propose Tea-MOELoRA, a parameter-efficient multi-task framework that combines LoRA with a Mixture-of-Experts (MoE) design. Multiple low-rank LoRA experts specialize in different IE tasks and eras, while a task-era-aware router mechanism dynamically allocates expert contributions. Experiments show that Tea-MOELoRA outperforms both single-task and joint LoRA baselines, demonstrating its ability to leverage task and temporal knowledge effectively.
- Abstract(参考訳): 中国情報抽出(IE)は、古典文書や現代文書を含む様々な時間領域にわたる複数のタスクを含む。
不均一なタスクと異なる時代にわたる単一モデルを微調整することで、干渉と性能の低下につながる可能性がある。
そこで本稿では,LoRAとMixture-of-Experts(MoE)設計を組み合わせたパラメータ効率のよいマルチタスクフレームワークであるTea-MOELoRAを提案する。
複数のローランクなLoRA専門家が異なるIEタスクと時代を専門とし、タスク・エイア・ア・ア・ルータ機構が専門家の貢献を動的に割り当てる。
実験により、Tea-MOELoRAは単一タスクと共同のLoRAベースラインの両方に優れており、タスクと時間的知識を効果的に活用できることが示されている。
関連論文リスト
- MoRE: A Mixture of Low-Rank Experts for Adaptive Multi-Task Learning [18.0412262027514]
マルチタスクのためのMixture of Low-Rank Experts (MoRE)を提案する。
各タスクに個別のLoRAを使う代わりに、異なるタスクでLoRAモジュールの異なるランクを調整します。
また、タスクごとに適切な専門家を選択するために、新しい適応的なランクセレクタを設計する。
論文 参考訳(メタデータ) (2025-05-28T12:32:09Z) - ThanoRA: Task Heterogeneity-Aware Multi-Task Low-Rank Adaptation [73.18867725540865]
Low-Rank Adaptation (LoRA) は、基礎モデルの下流の微調整に広く採用されている。
タスク不均一性を考慮したマルチタスク低ランク適応フレームワークであるTanoRAを提案する。
論文 参考訳(メタデータ) (2025-05-24T11:01:45Z) - Collaborative Multi-LoRA Experts with Achievement-based Multi-Tasks Loss for Unified Multimodal Information Extraction [28.800518091590117]
マルチモーダル情報抽出(MIE)は,マルチメディアソースからの構造化情報抽出に注目されている。
従来の方法は、タスク間で知識を共有する機会を欠いているMIEタスクに別々に取り組みます。
達成度に基づくMIEタスクのマルチタスク損失を考慮した,協調的なマルチLORA専門家を提案する。
論文 参考訳(メタデータ) (2025-05-08T03:16:32Z) - Each Rank Could be an Expert: Single-Ranked Mixture of Experts LoRA for Multi-Task Learning [53.053604713064544]
Low-Rank Adaptation (LoRA)は、その効率性とモジュール性から、大きな言語モデル(LLM)を特定のドメインに適用するために広く使われている。
最近の研究は、各LoRAモジュールを専門家として扱い、複数の特殊なLoRAモジュールによるタスク干渉を軽減することで、Mixture of Experts (MoE)を採用している。
効果はあるものの、これらの手法は個々のタスク内の知識を分離することが多く、関連するタスク間で共有された知識を完全に活用することができない。
各ランクをテキスト処理することでMoEをLoRAに埋め込むシングルランク専門家LoRA(textbfSMoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-25T06:56:39Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z) - Multimodal Instruction Tuning with Conditional Mixture of LoRA [51.58020580970644]
本稿では,Low-Rank Adaption (LoRA) とマルチモーダル命令チューニングを統合した新しい手法を提案する。
各入力インスタンスのユニークな要求に合わせた低ランク適応行列を動的に構築することで、LoRAを革新する。
様々なマルチモーダル評価データセットの実験結果から、MixLoRAは従来のLoRAを同等以上のランクで上回るだけでなく、性能も向上していることが示された。
論文 参考訳(メタデータ) (2024-02-24T20:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。