論文の概要: Just-In-Time Objectives: A General Approach for Specialized AI Interactions
- arxiv url: http://arxiv.org/abs/2510.14591v1
- Date: Thu, 16 Oct 2025 11:53:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.837325
- Title: Just-In-Time Objectives: A General Approach for Specialized AI Interactions
- Title(参考訳): Just-In-Time Objectives:AIインタラクションの汎用的アプローチ
- Authors: Michelle S. Lam, Omar Shaikh, Hallie Xu, Alice Guo, Diyi Yang, Jeffrey Heer, James A. Landay, Michael S. Bernstein,
- Abstract要約: 大規模な言語モデルは、幅広い関数セットを約束するが、特定の目的を与えられていない場合は、clichで照らされた電子メールのドラフト作成などのミルクトーストの結果をデフォルトとする。
我々は,ユーザの移動目標を推定し,その特定の目的を迅速に最適化し,LLMがより応答性が高く望まれるツール,インターフェース,応答を生成できることを実証する。
- 参考スコア(独自算出の注目度): 55.20968270133027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models promise a broad set of functions, but when not given a specific objective, they default to milquetoast results such as drafting emails littered with cliches. We demonstrate that inferring the user's in-the-moment objective, then rapidly optimizing for that singular objective, enables LLMs to produce tools, interfaces, and responses that are more responsive and desired. We contribute an architecture for automatically inducing just-in-time objectives by passively observing user behavior, then steering downstream AI systems through generation and evaluation against this objective. Inducing just-in-time objectives (e.g., "Clarify the abstract's research contribution") enables automatic generation of tools, e.g., those that critique a draft based on relevant HCI methodologies, anticipate related researchers' reactions, or surface ambiguous terminology. In a series of experiments (N=14, N=205) on participants' own tasks, JIT objectives enable LLM outputs that achieve 66-86% win rates over typical LLMs, and in-person use sessions (N=17) confirm that JIT objectives produce specialized tools unique to each participant.
- Abstract(参考訳): 大規模な言語モデルは、幅広い関数セットを約束するが、特定の目的を与えられていない場合は、clichで照らされた電子メールのドラフト作成などのミルクトーストの結果をデフォルトとする。
我々は,ユーザの移動目標を推定し,その特定の目的を迅速に最適化し,LLMがより応答性が高く望まれるツール,インターフェース,応答を生成できることを実証する。
我々は、ユーザの振る舞いを受動的に観察し、その目的に対する生成と評価を通じて下流AIシステムを操り、ジャスト・イン・タイムの目的を自動的に誘導するアーキテクチャに貢献する。
ジャスト・イン・タイムの目的(例えば「抽象者の研究貢献を明確にする」など)を導くことで、関連するHCI方法論に基づいてドラフトを批判するツールや、関連する研究者の反応を予測するツール、表面不明瞭な用語の自動生成が可能になる。
参加者自身のタスクに関する一連の実験 (N=14, N=205) において、JITの目的は、典型的なLLMよりも66~86%の勝利率を達成するLLM出力を可能にし、個人利用セッション (N=17) では、JITの目的が各参加者固有のツールを生成することを確認した。
関連論文リスト
- LLM Agents Beyond Utility: An Open-Ended Perspective [50.809163251551894]
我々は、事前訓練されたLLMエージェントを、自身のタスクを生成し、知識を蓄積し、その環境と広範囲に相互作用する能力で強化する。
複雑なマルチステップ命令を確実に追跡し、実行中に情報を保存、再利用し、独自のタスクを提案し、解決することができる。
迅速な設計や反復的なタスク生成に敏感であり、自己表現を形成することができない。
論文 参考訳(メタデータ) (2025-10-16T10:46:54Z) - Evaluating the Goal-Directedness of Large Language Models [17.08087240111954]
我々は,情報収集,認知活動,計画実行を必要とするタスクに対して,目標指向性を評価する。
Google DeepMind、OpenAI、AnthhropicによるLCMの評価は、ゴール指向性はタスク間で比較的一貫性があることを示している。
論文 参考訳(メタデータ) (2025-04-16T08:07:08Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Goal-Conditioned Supervised Learning for Multi-Objective Recommendation [8.593384839118658]
多目的学習は、一つのモデルを用いて複数の目的を同時に最適化する。
本稿では,オフラインシーケンシャルデータから複数の目標を自動学習する多目的目標定義型監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-12T03:47:40Z) - LLM With Tools: A Survey [0.0]
本稿では,LCMに外部ツールの使用を教える領域における方法論,問題点,展開について述べる。
ユーザ命令を実行可能なプランにマッピングする一連の関数によってガイドされるツール統合のための標準化パラダイムを導入する。
調査の結果,ツール起動タイミング,選択精度,堅牢な推論プロセスの必要性など,さまざまな課題が明らかになった。
論文 参考訳(メタデータ) (2024-09-24T14:08:11Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - CACTUS: Detecting and Resolving Conflicts in Objective Functions [16.784454432715712]
多対象最適化において、矛盾する目的と制約は大きな関心事である。
本稿では,多目的目的関数を可視化する手法をプロトタイプ化して,この作業範囲を拡張する。
本手法は,分類タスクの潜在的な競合を解決することによって,ユーザが対話的に有意義な目的関数を特定できることを示す。
論文 参考訳(メタデータ) (2021-03-13T22:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。