論文の概要: Reconsidering Conversational Norms in LLM Chatbots for Sustainable AI
- arxiv url: http://arxiv.org/abs/2512.14673v1
- Date: Tue, 16 Dec 2025 18:38:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.835068
- Title: Reconsidering Conversational Norms in LLM Chatbots for Sustainable AI
- Title(参考訳): 持続可能なAIのためのLLMチャットボットにおける会話ノルムの再検討
- Authors: Ronnie de Souza Santos, Cleyton Magalhães, Italo Santos,
- Abstract要約: 相互作用レベルの挙動はLLM系システムの環境影響を形作る過小評価要因であると考えられる。
拡張された会話パターンがトークン生成を増大させ、推論の計算コストを上昇させることを示す。
日常的なユーザの習慣は、ほとんど定量化されない方法で累積的な運用需要に寄与する、と我々は主張する。
- 参考スコア(独自算出の注目度): 2.198430261120653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM based chatbots have become central interfaces in technical, educational, and analytical domains, supporting tasks such as code reasoning, problem solving, and information exploration. As these systems scale, sustainability concerns have intensified, with most assessments focusing on model architecture, hardware efficiency, and deployment infrastructure. However, existing mitigation efforts largely overlook how user interaction practices themselves shape the energy profile of LLM based systems. In this vision paper, we argue that interaction level behavior appears to be an underexamined factor shaping the environmental impact of LLM based systems, and we present this issue across four dimensions. First, extended conversational patterns increase token production and raise the computational cost of inference. Second, expectations of instant responses limit opportunities for energy aware scheduling and workload consolidation. Third, everyday user habits contribute to cumulative operational demand in ways that are rarely quantified. Fourth, the accumulation of context affects memory requirements and reduces the efficiency of long running dialogues. Addressing these challenges requires rethinking how chatbot interactions are designed and conceptualized, and adopting perspectives that recognize sustainability as partly dependent on the conversational norms through which users engage with LLM based systems.
- Abstract(参考訳): LLMベースのチャットボットは、技術的、教育的、分析的な領域において中心的なインターフェースとなり、コード推論、問題解決、情報探索などのタスクをサポートする。
これらのシステムの規模が拡大するにつれて、サステナビリティに関する懸念が強まり、モデルアーキテクチャ、ハードウェア効率、デプロイメントインフラストラクチャに注目する評価がほとんどである。
しかし、既存の緩和努力は、ユーザインタラクション自体がLLMベースのシステムのエネルギープロファイルを形成する方法を大きく見落としている。
本稿では,LLMに基づくシステムの環境影響をモデル化する上で,相互作用レベルの挙動は過小評価された要因のように見えることを論じ,この問題を4次元にわたって論じる。
まず、拡張された会話パターンによってトークンの生成が増加し、推論の計算コストが上昇する。
第2に、即時応答の期待は、エネルギーを意識したスケジューリングとワークロード統合の機会を制限する。
第3に、日々のユーザの習慣は、ほとんど定量化されない方法で累積的な運用需要に寄与する。
第4に、コンテキストの蓄積はメモリ要求に影響し、長時間実行される対話の効率を低下させる。
これらの課題に対処するには、チャットボットのインタラクションがどのように設計され、概念化されているかを再考し、持続可能性を認識する視点を、ユーザがLLMベースのシステムに関わる会話規範に部分的に依存するものとして採用する必要がある。
関連論文リスト
- KnowMT-Bench: Benchmarking Knowledge-Intensive Long-Form Question Answering in Multi-Turn Dialogues [58.305425399644086]
MT-LFQA(Multi-Turn Long-Form Question Answering)は、知識集約ドメインにおけるLLM(Large Language Models)の重要な応用パラダイムである。
textbfKnowMT-Benchは、知識集約的な分野にわたるLLMのためのMT-LFQAを体系的に評価するために設計された、テキストファーストなベンチマークである。
論文 参考訳(メタデータ) (2025-09-26T04:32:29Z) - Mitigating the Carbon Footprint of Chatbots as Consumers [7.237493755167876]
本稿では,大規模言語モデル(LLM)の基本機能に関連する環境影響について検討する。
実世界のシステムから匿名化されたトークンデータを用いて会話パターンを解析した後、より持続可能な方法でチャットボットをどのように使用できるかを個人に推奨する。
シミュレーションに基づいて、このような生態学的ジェスチャーの導入による貯蓄ポテンシャルを推定する。
論文 参考訳(メタデータ) (2025-07-29T19:00:43Z) - When LLMs Team Up: The Emergence of Collaborative Affective Computing [17.777196145195866]
本調査は, Affective Computing (AC) におけるLarge Language Models (LLMs) ベースのコラボレーションシステムの概要を概観することを目的とする。
LLMは、感情的な理解と生成タスクに対する統一的なアプローチを提供し、動的でリアルタイムな相互作用の可能性を高める。
この研究は、ACのLLMと協調的なインテリジェンスを体系的に探求する最初のものであり、人間のようなソーシャルインテリジェンスにアプローチするより強力なアプリケーションへの道を開いた。
論文 参考訳(メタデータ) (2025-06-02T14:00:54Z) - Scaling and Beyond: Advancing Spatial Reasoning in MLLMs Requires New Recipes [84.1059652774853]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - Enabling Real-Time Conversations with Minimal Training Costs [61.80370154101649]
本稿では,2つの言語モデルに対して,最小限の訓練を要し,2つの言語能力を持つ新しい重複復号法を提案する。
実験結果から,本手法はトレーニングコストの最小化とともに,ユーザとAIのインタラクションの自然性と人間的類似性を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-09-18T06:27:26Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Understanding Large Language Model Behaviors through Interactive Counterfactual Generation and Analysis [22.755345889167934]
本稿では,大規模言語モデル (LLM) の対実解析による探索を可能にする対話型可視化システムを提案する。
本システムは,意味論的に意味のある反事実を生成する新しいアルゴリズムを特徴とする。
LLM実践者とのユーザスタディと専門家とのインタビューは、システムのユーザビリティと有効性を示している。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - Conversational Assistants in Knowledge-Intensive Contexts: An Evaluation of LLM- versus Intent-based Systems [8.88228247647452]
言語モデル(LLM)により、会話アシスタント(CA)はより柔軟で人間的な方法で会話できる。
LLMは、インテントベースのシステムよりも優れたユーザエクスペリエンス、タスク完了率、ユーザビリティ、認識パフォーマンスを示した。
論文 参考訳(メタデータ) (2024-02-07T15:39:07Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Approximating Online Human Evaluation of Social Chatbots with Prompting [11.657633779338724]
既存の評価指標は、オフラインユーザ評価の自動化と、事前計算したダイアログの人的判断の近似を目的としている。
GPTファミリーの大規模言語モデル(LLM)を利用したオンライン人間評価の近似手法を提案する。
Prompting (DEP) に基づく新しいダイアログシステム評価フレームワークを導入し,完全な自動評価パイプラインを実現する。
論文 参考訳(メタデータ) (2023-04-11T14:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。