論文の概要: Verbalized Algorithms
- arxiv url: http://arxiv.org/abs/2509.08150v1
- Date: Tue, 09 Sep 2025 21:14:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.249528
- Title: Verbalized Algorithms
- Title(参考訳): 言語化アルゴリズム
- Authors: Supriya Lall, Christian Farrell, Hari Pathanjaly, Marko Pavic, Sarvesh Chezhian, Masataro Asai,
- Abstract要約: ワンショットでLLMをクエリする代わりに,Emphverbalized Algorithm (VA) と呼ばれるパラダイムを提案する。
VAはタスクを自然言語文字列の単純な基本操作に分解し、確実に答えられるようにすべきである。
ソート作業やクラスタリング作業におけるこのアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 0.9697877942346907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instead of querying LLMs in a one-shot manner and hoping to get the right answer for a reasoning task, we propose a paradigm we call \emph{verbalized algorithms} (VAs), which leverage classical algorithms with established theoretical understanding. VAs decompose a task into simple elementary operations on natural language strings that they should be able to answer reliably, and limit the scope of LLMs to only those simple tasks. For example, for sorting a series of natural language strings, \emph{verbalized sorting} uses an LLM as a binary comparison oracle in a known and well-analyzed sorting algorithm (e.g., bitonic sorting network). We demonstrate the effectiveness of this approach on sorting and clustering tasks.
- Abstract(参考訳): LLMをワンショットでクエリし、推論タスクの正しい答えを期待する代わりに、確立された理論的理解で古典的アルゴリズムを活用する「emph{verbalized algorithm} (VAs)」と呼ばれるパラダイムを提案する。
VAは、タスクを自然言語文字列の単純な基本操作に分解し、確実に答えられるようにし、LLMの範囲をこれらの単純なタスクのみに制限する。
例えば、一連の自然言語文字列をソートする場合、 \emph{verbalized sorting} は LLM を既知のよく解析されたソートアルゴリズム(例えばビットニックソートネットワーク)のバイナリ比較オラクルとして使用する。
ソート作業やクラスタリング作業におけるこのアプローチの有効性を実証する。
関連論文リスト
- RELIC: Evaluating Compositional Instruction Following via Language Recognition [37.49115450182637]
大規模言語モデル(LLM)は、コンテキストで提供されるタスクの仕様に基づいてのみタスクを実行することがますます期待されている。
本稿では,言語認識を用いたインコンテキスト認識(RELIC)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-06-05T16:17:24Z) - Active Learning of Mealy Machines with Timers [3.087487671441056]
ブラックボックスのコンテキストでタイマーでMealyマシンをクエリする最初のアルゴリズムを提案する。
我々のアルゴリズムはVaandragerらのL#アルゴリズムを時間設定に拡張したものである。
論文 参考訳(メタデータ) (2024-03-04T13:20:52Z) - Executing Natural Language-Described Algorithms with Large Language Models: An Investigation [48.461999568129166]
自然言語で概説したアルゴリズムを理解・実行するための,今日の大規模言語モデルの能力について検討する。
我々は、30個のアルゴリズムを選択し、300個のランダムサンプリングされたインスタンスを生成し、人気のあるLCMがこれらのアルゴリズムを理解し実行できるかを評価した。
この結果から,LLM,特にGPT-4は,重数値計算を伴わない限り,自然言語で記述されたプログラムを効果的に実行できることが判明した。
論文 参考訳(メタデータ) (2024-02-23T05:31:36Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - Leveraging Large Language Models for Exploiting ASR Uncertainty [16.740712975166407]
大規模な言語モデルは、書き起こしのための既製の音声認識システムに依存するか、あるいは内蔵された音声モダリティを備える必要がある。
我々は,高い単語誤り率でLLMの発話意図を理解する能力を制限する音声意図分類タスクに取り組む。
我々は,誤り発生1-best仮説に代えて,ASR仮説のn-bestリストでLLMを推し進めることを提案する。
論文 参考訳(メタデータ) (2023-09-09T17:02:33Z) - Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models [17.059322033670124]
本稿では,アルゴリズム的推論経路を通じて大規模言語モデルを促進する新しい手法を提案する。
この結果から,LLMをアルゴリズムを用いて指導すると,アルゴリズム自体よりも性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-20T22:36:23Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。