論文の概要: Trapped by Expectations: Functional Fixedness in LLM-Enabled Chat Search
- arxiv url: http://arxiv.org/abs/2504.02074v1
- Date: Wed, 02 Apr 2025 19:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:36.014503
- Title: Trapped by Expectations: Functional Fixedness in LLM-Enabled Chat Search
- Title(参考訳): 期待に追われた:LLM型チャットサーチにおける機能的固定性
- Authors: Jiqun Liu, Jamshed Karimnazarov, Ryen W. White,
- Abstract要約: 大規模言語モデル(LLM)対応チャット検索における機能的固定性の影響について検討した。
事前の期待が言語の使用を形作り、行動を促すことを発見した。
適切なシステムサポートにより、LLM能力の広範な探索が促進される可能性がある。
- 参考スコア(独自算出の注目度): 9.166043188084414
- License:
- Abstract: Functional fixedness, a cognitive bias that restricts users' interactions with a new system or tool to expected or familiar ways, limits the full potential of Large Language Model (LLM)-enabled chat search, especially in complex and exploratory tasks. To investigate its impact, we conducted a crowdsourcing study with 450 participants, each completing one of six decision-making tasks spanning public safety, diet and health management, sustainability, and AI ethics. Participants engaged in a multi-prompt conversation with ChatGPT to address the task, allowing us to compare pre-chat intent-based expectations with observed interactions. We found that: 1) Several aspects of pre-chat expectations are closely associated with users' prior experiences with ChatGPT, search engines, and virtual assistants; 2) Prior system experience shapes language use and prompting behavior. Frequent ChatGPT users reduced deictic terms and hedge words and frequently adjusted prompts. Users with rich search experience maintained structured, less-conversational queries with minimal modifications. Users of virtual assistants favored directive, command-like prompts, reinforcing functional fixedness; 3) When the system failed to meet expectations, participants generated more detailed prompts with increased linguistic diversity, reflecting adaptive shifts. These findings suggest that while preconceived expectations constrain early interactions, unmet expectations can motivate behavioral adaptation. With appropriate system support, this may promote broader exploration of LLM capabilities. This work also introduces a typology for user intents in chat search and highlights the importance of mitigating functional fixedness to support more creative and analytical use of LLMs.
- Abstract(参考訳): 新しいシステムやツールとのインタラクションを期待あるいは慣れ親しんだ方法で制限する認知バイアスである機能的固定性は、特に複雑で探索的なタスクにおいて、LLM(Large Language Model)対応のチャットサーチの可能性を最大限に制限する。
その影響を調査するため、450名の参加者を対象にクラウドソーシング調査を行い、公共の安全、食事と健康管理、持続可能性、AI倫理に関する6つの意思決定課題の1つを完了した。
この課題に対処するため、ChatGPTとマルチプロンプト会話を行った参加者は、チャット前の意図に基づく期待と観察された相互作用を比較することができる。
私たちはこう発見しました。
1) チャット前期待のいくつかの側面は,ChatGPT,検索エンジン,仮想アシスタントのユーザ体験と密接に関連している。
2)事前のシステム体験は言語の使用と行動の促進を形作る。
頻繁なChatGPTユーザは、難解な言葉やヘッジワードを減らし、頻繁にプロンプトを調整した。
リッチな検索経験を持つユーザは、最小限の変更で構造化され、会話の少ないクエリを維持した。
仮想アシスタントのユーザは、ディレクティブ、コマンドライクなプロンプト、機能的固定性の強化を好んだ。
3) システムが期待に届かなかった場合, 参加者は適応的な変化を反映して, 言語多様性の増大とともに, より詳細なプロンプトを発生させることができた。
これらの結果は、先入観は早期の相互作用を制約するが、未完成の期待は行動適応を動機付ける可能性があることを示唆している。
適切なシステムサポートにより、LLM能力の広範な探索が促進される可能性がある。
この研究は、チャット検索におけるユーザ意図の類型化も導入し、LLMのより創造的で分析的な使用を支援するために、機能的固定性を緩和することの重要性を強調している。
関連論文リスト
- Gensors: Authoring Personalized Visual Sensors with Multimodal Foundation Models and Reasoning [61.17099595835263]
Gensorsは、ユーザがMLLMの推論能力によってサポートされているカスタマイズされたセンサーを定義することを可能にするシステムである。
ユーザスタディでは、Gensorsを用いてセンサーを定義するとき、参加者はコントロール、理解、コミュニケーションの容易さを著しく向上させた。
論文 参考訳(メタデータ) (2025-01-27T01:47:57Z) - Unimib Assistant: designing a student-friendly RAG-based chatbot for all their needs [1.0805849839756092]
このパイロットスタディは,OpenAIカスタムGPT機能を用いた検索・拡張生成(RAG)システムによるChatGPT動作の専門化に重点を置いている。
我々はミラノ・ビコッカ大学(Unimib)の学生の特定のニーズに対する情報と解決策を提供するUnimib Assistantを開発した。
ユーザの満足度と全体的な経験は、システムが常に正確な情報を提供することができないことで損なわれた。
論文 参考訳(メタデータ) (2024-11-29T09:07:21Z) - Navigating the Unknown: A Chat-Based Collaborative Interface for Personalized Exploratory Tasks [35.09558253658275]
本稿ではCARE(Collaborative Assistant for Personalized Exploration)を紹介する。
CARE は多エージェント LLM フレームワークと構造化ユーザインタフェースを組み合わせることにより,探索作業におけるパーソナライズを向上するシステムである。
この結果から, パーソナライズされた問題解決・探索において, CARE が LLM ベースのシステムを受動的情報検索システムから積極的パートナーに転換する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-31T15:30:55Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Beyond ChatBots: ExploreLLM for Structured Thoughts and Personalized
Model Responses [35.74453152447319]
ExploreLLMは、ユーザが思考を構造化し、さまざまな選択肢を探索し、選択とレコメンデーションをナビゲートし、よりパーソナライズされたレスポンスを生成するために、より簡単にモデルをステアリングすることを可能にする。
本研究では,探索的・計画的なタスクにExploreLLMを使うことが有用であることを示す。
この研究は、ExploreLLMで高レベルな好みで応答をより簡単にパーソナライズできることを示唆している。
論文 参考訳(メタデータ) (2023-12-01T18:31:28Z) - Multi-Purpose NLP Chatbot : Design, Methodology & Conclusion [0.0]
本研究は,現在あるチャットボット技術環境を網羅的に分析するものである。
ユーザインタラクションと会話体験を改善するために強化学習戦略を利用する、非常に柔軟なシステムを提供する。
チャットボット技術の発展の複雑さと、これらの開発を推進してきた要因と、それらが様々な分野に及ぼした影響についても検討する。
論文 参考訳(メタデータ) (2023-10-13T09:47:24Z) - Leveraging Large Language Models for Automated Dialogue Analysis [12.116834890063146]
本稿では,現在最先端の大規模言語モデル(LLM)であるChatGPT-3.5を用いて,実際のロボット対話における9つのカテゴリの対話行動検出を行う。
以上の結果から, 特殊モデルもChatGPTもこの課題に満足できない結果が得られず, 人的性能に乏しいことが判明した。
論文 参考訳(メタデータ) (2023-09-12T18:03:55Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - A Preliminary Evaluation of ChatGPT for Zero-shot Dialogue Understanding [55.37338324658501]
ゼロショット対話理解は、ユーザーのニーズをトレーニングデータなしで追跡できるようにすることを目的としている。
本研究では,ゼロショット対話理解タスクにおけるChatGPTの理解能力について検討する。
論文 参考訳(メタデータ) (2023-04-09T15:28:36Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - Mobile App Tasks with Iterative Feedback (MoTIF): Addressing Task
Feasibility in Interactive Visual Environments [54.405920619915655]
これまで最大数のインタラクティブ環境向けに自然言語コマンドを用いたデータセットであるMoTIF(Iterative Feedback)を用いたモバイルアプリタスクを紹介します。
MoTIFは、満足できないインタラクティブ環境のための自然言語リクエストを最初に含んでいる。
初期実現可能性分類実験を行い、より豊かな視覚言語表現の必要性を検証し、f1スコア37.3まで到達した。
論文 参考訳(メタデータ) (2021-04-17T14:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。