論文の概要: Tool Calling for Arabic LLMs: Data Strategies and Instruction Tuning
- arxiv url: http://arxiv.org/abs/2509.20957v1
- Date: Thu, 25 Sep 2025 09:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.82715
- Title: Tool Calling for Arabic LLMs: Data Strategies and Instruction Tuning
- Title(参考訳): アラビアLLMのためのツールコール:データストラテジーとインストラクションチューニング
- Authors: Asim Ersoy, Enes Altinisik, Husrev Taha Sencar, Kareem Darwish,
- Abstract要約: 2つのオープンソースのツールコールデータセットをアラビア語に翻訳し、適応することで、リソースギャップを埋める。
本研究は,アラビア語に対する堅牢なツール強化剤開発のための最適戦略に関する重要な知見を提供する。
- 参考スコア(独自算出の注目度): 8.009383136558823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tool calling is a critical capability that allows Large Language Models (LLMs) to interact with external systems, significantly expanding their utility. However, research and resources for tool calling are predominantly English-centric, leaving a gap in our understanding of how to enable this functionality for other languages, such as Arabic. This paper investigates three key research questions: (1) the necessity of in-language (Arabic) tool-calling data versus relying on cross-lingual transfer, (2) the effect of general-purpose instruction tuning on tool-calling performance, and (3) the value of fine-tuning on specific, high-priority tools. To address these questions, we conduct extensive experiments using base and post-trained variants of an open-weight Arabic LLM. To enable this study, we bridge the resource gap by translating and adapting two open-source tool-calling datasets into Arabic. Our findings provide crucial insights into the optimal strategies for developing robust tool-augmented agents for Arabic.
- Abstract(参考訳): ツール呼び出しは、LLM(Large Language Models)が外部システムとのインタラクションを可能にし、そのユーティリティを大幅に拡張する重要な機能である。
しかし、ツールコールのための研究とリソースは、主に英語中心であり、アラビア語など他の言語でこの機能を有効にする方法に関する私たちの理解の欠如を残している。
本稿では,(1)言語内(アラビア語)ツールコールデータの必要性,(2)ツールコール性能に対する汎用的指導指導の効果,(3)特定の高優先度ツールに対する微調整の価値,の3つの主要な研究課題について検討する。
これらの問題に対処するために、オープンウェイトアラビア語LLMのベースおよびポストトレーニング後の変種を用いて広範な実験を行う。
本研究では、2つのオープンソースツールコールデータセットをアラビア語に翻訳し、適応させることにより、リソースギャップを埋める。
本研究は,アラビア語に対する堅牢なツール強化剤開発のための最適戦略に関する重要な知見を提供する。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Enhancing Tool Retrieval with Iterative Feedback from Large Language Models [9.588592185027455]
大規模言語モデル(LLM)は、コンテキスト内学習や微調整を通じて、ある程度のツールを効果的に扱うことができる。
現実のシナリオでは、ツールの数は一般的に広範囲で不規則に更新され、専用のツール検索コンポーネントの必要性を強調している。
本稿では,大規模言語モデルからの反復的なフィードバックでツール検索を強化することを提案する。
論文 参考訳(メタデータ) (2024-06-25T11:12:01Z) - Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。