論文の概要: Mutual Wanting in Human--AI Interaction: Empirical Evidence from Large-Scale Analysis of GPT Model Transitions
- arxiv url: http://arxiv.org/abs/2510.24796v1
- Date: Mon, 27 Oct 2025 18:16:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.50036
- Title: Mutual Wanting in Human--AI Interaction: Empirical Evidence from Large-Scale Analysis of GPT Model Transitions
- Title(参考訳): 人間-AIインタラクションにおける相互欲求--GPTモデル遷移の大規模解析による実証的エビデンス
- Authors: HaoYang Shang, Xuan Liu,
- Abstract要約: 主要なモデル遷移におけるこれらの期待を分析するために、"ミューチュアルな欲求"の概念を紹介します。
本研究では,人間とAIの相互作用における双方向欲求動態の大規模検証を行う。
これらの知見は、より信頼性が高くリレーショナルに認識されたAIシステムを構築するための明確な意味を持つ測定可能な現象として相互欲求を確立している。
- 参考スコア(独自算出の注目度): 5.402611559425266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of large language models (LLMs) creates complex bidirectional expectations between users and AI systems that are poorly understood. We introduce the concept of "mutual wanting" to analyze these expectations during major model transitions. Through analysis of user comments from major AI forums and controlled experiments across multiple OpenAI models, we provide the first large-scale empirical validation of bidirectional desire dynamics in human-AI interaction. Our findings reveal that nearly half of users employ anthropomorphic language, trust significantly exceeds betrayal language, and users cluster into distinct "mutual wanting" types. We identify measurable expectation violation patterns and quantify the expectation-reality gap following major model releases. Using advanced NLP techniques including dual-algorithm topic modeling and multi-dimensional feature extraction, we develop the Mutual Wanting Alignment Framework (M-WAF) with practical applications for proactive user experience management and AI system design. These findings establish mutual wanting as a measurable phenomenon with clear implications for building more trustworthy and relationally-aware AI systems.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進化は、未理解のユーザとAIシステムの間で複雑な双方向の期待を生み出す。
主要なモデル遷移におけるこれらの期待を分析するために、"ミューチュアルな欲求"の概念を紹介します。
主要なAIフォーラムからのユーザコメントの分析と、複数のOpenAIモデルに対する制御された実験を通じて、人間とAIのインタラクションにおける双方向の欲求ダイナミクスの大規模な検証を行う。
調査の結果, ほぼ半数のユーザが人工言語を使用し, 信頼度は裏切言語をはるかに上回り, ユーザーは異なる「ミューチュアルな欲求」型にクラスタリングしていることがわかった。
我々は、測定可能な予測違反パターンを特定し、主要なモデルリリース後の期待と現実のギャップを定量化する。
2次元トピックモデリングと多次元特徴抽出を含む高度なNLP技術を用いて、積極的ユーザエクスペリエンス管理とAIシステム設計のための実践的応用を含むM-WAF(Mutual Wanting Alignment Framework)を開発した。
これらの知見は、より信頼性が高くリレーショナルに認識されたAIシステムを構築するための明確な意味を持つ測定可能な現象として相互欲求を確立している。
関連論文リスト
- AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models [78.08374249341514]
AI生成コンテンツ(AIGC)の急速な発展は、誤情報を拡散するAIGIの誤用につながった。
大規模で包括的なデータセットであるHolmes-Setを導入し、画像がAI生成されているかどうかを解説したインストラクションチューニングデータセットを含む。
本研究は,MLLMの構造化説明と品質管理によるデータ生成を効率化する,Multi-Expert Juryと呼ばれる効率的なデータアノテーション手法を提案する。
さらに,視覚専門家による事前学習,教師付き微調整,直接選好最適化を含む3段階学習フレームワークであるHolmes Pipelineを提案する。
論文 参考訳(メタデータ) (2025-07-03T14:26:31Z) - Toward Knowledge-Guided AI for Inverse Design in Manufacturing: A Perspective on Domain, Physics, and Human-AI Synergy [0.8399688944263844]
AIは製造における逆設計を再構築し、材料、製品、プロセスにおける高性能な発見を可能にしている。
しかし、純粋にデータ駆動のアプローチは、スパースデータ、高次元の設計空間、複雑な制約によって特徴づけられる現実的な製造環境に苦しむことが多い。
この視点は、3つの補完的な柱の上に構築された統合フレームワークを提案する: 物理的に意味のある目的と制約を確立するためのドメイン知識と、限定的または偏りのあるデータに基づく一般化を強化する物理インフォームド機械学習、直感的で人間中心のインタラクションをサポートするための大規模言語モデルベースのインターフェイス。
論文 参考訳(メタデータ) (2025-05-29T08:15:27Z) - Large Language Model-Empowered Interactive Load Forecasting [3.0031348283981987]
大きな言語モデル(LLM)は、人間のオペレータと予測モデルの間のギャップを埋める新たな機会を提供する。
特殊なエージェントのセットは、予測ワークフローで異なるタスクを実行し、専用の通信メカニズムを介して協調するように設計されている。
本実験は,ユーザが重要な段階について適切な洞察を与えると,対話型負荷予測精度が大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2025-05-22T12:11:10Z) - A Survey of Model Architectures in Information Retrieval [59.61734783818073]
2019年から現在までの期間は、情報検索(IR)と自然言語処理(NLP)における最大のパラダイムシフトの1つとなっている。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
今後の課題と今後の方向性について、先見的な議論で締めくくります。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - Mechanistic understanding and validation of large AI models with SemanticLens [13.712668314238082]
航空機のような人間工学的なシステムとは異なり、AIモデルの内部動作はほとんど不透明である。
本稿では、コンポーネントによって符号化された隠れた知識をマッピングするニューラルネットワークの普遍的説明法であるSemanticLensを紹介する。
論文 参考訳(メタデータ) (2025-01-09T17:47:34Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions [11.972017738888825]
大規模モデルの自己消費説明のためのモデルオートファジー分析(MONAL)を提案する。
MONALは、人間とAIシステム間の交換における人為的な情報の抑制を解明するために、2つの異なる自己食ループを使用している。
生成したモデルのキャパシティを,情報作成者とディスセミネータの両方として評価する。
論文 参考訳(メタデータ) (2024-02-17T13:02:54Z) - Detecting Any Human-Object Interaction Relationship: Universal HOI
Detector with Spatial Prompt Learning on Foundation Models [55.20626448358655]
本研究では,ビジョン・ランゲージ(VL)基礎モデルと大規模言語モデル(LLM)を用いて,オープンワールド環境におけるユニバーサルインタラクション認識について検討する。
我々の設計にはHO Prompt-guided Decoder (HOPD) が含まれており、基礎モデルにおける高次関係表現と画像内の様々なHOペアとの結合を容易にする。
オープンカテゴリの対話認識では,対話文と解釈文の2つのタイプがサポートされている。
論文 参考訳(メタデータ) (2023-11-07T08:27:32Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。