論文の概要: The Term 'Agent' Has Been Diluted Beyond Utility and Requires Redefinition
- arxiv url: http://arxiv.org/abs/2508.05338v1
- Date: Thu, 07 Aug 2025 12:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.855906
- Title: The Term 'Agent' Has Been Diluted Beyond Utility and Requires Redefinition
- Title(参考訳): Agent」という用語は、実用性以上に希薄になり、再定義を必要としている
- Authors: Brinnae Bent,
- Abstract要約: 人工知能における「エージェント」という言葉は、長い間、様々なサブフィールドにまたがって複数の解釈をしてきた。
AI機能、特に大規模言語モデルシステムにおける最近の発展は、この曖昧さを増幅している。
本稿では,エージェントとみなすシステムに対して,最小限の要件を明確に定義するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.40792653193642503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The term 'agent' in artificial intelligence has long carried multiple interpretations across different subfields. Recent developments in AI capabilities, particularly in large language model systems, have amplified this ambiguity, creating significant challenges in research communication, system evaluation and reproducibility, and policy development. This paper argues that the term 'agent' requires redefinition. Drawing from historical analysis and contemporary usage patterns, we propose a framework that defines clear minimum requirements for a system to be considered an agent while characterizing systems along a multidimensional spectrum of environmental interaction, learning and adaptation, autonomy, goal complexity, and temporal coherence. This approach provides precise vocabulary for system description while preserving the term's historically multifaceted nature. After examining potential counterarguments and implementation challenges, we provide specific recommendations for moving forward as a field, including suggestions for terminology standardization and framework adoption. The proposed approach offers practical tools for improving research clarity and reproducibility while supporting more effective policy development.
- Abstract(参考訳): 人工知能における「エージェント」という言葉は、長い間、様々なサブフィールドにまたがって複数の解釈をしてきた。
AI能力の最近の発展、特に大規模言語モデルシステムでは、この曖昧さを増幅し、研究コミュニケーション、システム評価と再現性、政策開発において重要な課題を生み出している。
本稿は「エージェント」という言葉は再定義を必要とすると論じている。
本研究では,環境相互作用,学習と適応,自律性,目標複雑性,時間的一貫性の多次元スペクトルに沿ってシステムを特徴付ける一方で,エージェントと見なすべきシステムの最小限の要件を明確に定義する枠組みを提案する。
このアプローチは、歴史的に多面的な性質を維持しながら、システム記述の正確な語彙を提供する。
潜在的な対策や実装上の課題を検討した後、専門用語の標準化やフレームワークの採用など、分野として前進するための具体的な推奨事項を提示します。
提案手法は、より効果的な政策開発を支援しつつ、研究の明確さと再現性を向上させるための実践的なツールを提供する。
関連論文リスト
- Decoding the Multimodal Maze: A Systematic Review on the Adoption of Explainability in Multimodal Attention-based Models [0.0]
この体系的な文献レビューは、マルチモーダルモデルの説明可能性に焦点を当てた2020年1月から2024年初頭に発表された研究を分析している。
マルチモーダル環境におけるXAIの評価手法は, ほぼ非体系的であり, 一貫性, 堅牢性, モダリティ特有の認知的・文脈的要因の考慮が欠如していることが判明した。
論文 参考訳(メタデータ) (2025-08-06T13:14:20Z) - Deep Research Agents: A Systematic Examination And Roadmap [79.04813794804377]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Erasing Concepts, Steering Generations: A Comprehensive Survey of Concept Suppression [10.950528923845955]
機密性、著作権、有害な画像の無制御再生は、重大な倫理的、法的、安全上の課題を引き起こす。
概念消去パラダイムは有望な方向として現れており、生成モデルから特定の意味概念を選択的に除去することができる。
この調査は、研究者がより安全で倫理的に整合した生成モデルへと導くことを目的としている。
論文 参考訳(メタデータ) (2025-05-26T01:24:34Z) - Disambiguation in Conversational Question Answering in the Era of LLM: A Survey [36.37587894344511]
自然言語処理(NLP)におけるあいまいさは依然として根本的な課題である
LLM(Large Language Models)の出現により、あいまいさに対処することがさらに重要になった。
本稿では,言語駆動システムにおけるあいまいさの定義,形態,含意について考察する。
論文 参考訳(メタデータ) (2025-05-18T20:53:41Z) - Large Language Models Meet Stance Detection: A Survey of Tasks, Methods, Applications, Challenges and Future Directions [0.37865171120254354]
スタンス検出は、ソーシャルメディア、ニュース記事、オンラインレビューなど、さまざまなプラットフォームにわたる主観的コンテンツを理解するために不可欠である。
大規模言語モデル(LLM)の最近の進歩は、新しい能力を導入して姿勢検出に革命をもたらした。
本稿では3つの重要な側面に沿って構築されたLCMに基づく姿勢検出手法について,新しい分類法を提案する。
スタンス検出、政治分析、公衆衛生モニタリング、ソーシャルメディアのモデレーションにおける主要な応用について論じる。
論文 参考訳(メタデータ) (2025-05-13T11:47:49Z) - A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - Towards Rationality in Language and Multimodal Agents: A Survey [23.451887560567602]
この研究は、より合理的な言語とマルチモーダルエージェントを構築する方法について議論する。
合理性は理性によって導かれる性質であり、証拠や論理原理と整合した意思決定によって特徴づけられる。
論文 参考訳(メタデータ) (2024-06-01T01:17:25Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。