論文の概要: LVLMs and Humans Ground Differently in Referential Communication
- arxiv url: http://arxiv.org/abs/2601.19792v1
- Date: Tue, 27 Jan 2026 16:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.405628
- Title: LVLMs and Humans Ground Differently in Referential Communication
- Title(参考訳): 情報通信におけるLVLMと人間の役割
- Authors: Peter Zeng, Weiling Li, Amie Paige, Zhengxiang Wang, Panagiotis Kaliosis, Dimitris Samaras, Gregory Zelinsky, Susan Brennan, Owen Rambow,
- Abstract要約: 本稿では,複数回にまたがって複数のターンを交互に交互に交互に交互に交互に交互に交互に交互に操作するディレクトリ・マーチャントの設計について述べる。
データ収集のためのオンラインパイプライン、精度、効率、語彙オーバーラップのためのツールと分析、およびLVLMが参照表現を対話的に解決する際の制限を解き放つ356の対話コーパスをリリースする。
- 参考スコア(独自算出の注目度): 33.82075906105276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For generative AI agents to partner effectively with human users, the ability to accurately predict human intent is critical. But this ability to collaborate remains limited by a critical deficit: an inability to model common ground. Here, we present a referential communication experiment with a factorial design involving director-matcher pairs (human-human, human-AI, AI-human, and AI-AI) that interact with multiple turns in repeated rounds to match pictures of objects not associated with any obvious lexicalized labels. We release the online pipeline for data collection, the tools and analyses for accuracy, efficiency, and lexical overlap, and a corpus of 356 dialogues (89 pairs over 4 rounds each) that unmasks LVLMs' limitations in interactively resolving referring expressions, a crucial skill that underlies human language use.
- Abstract(参考訳): 生成的AIエージェントが人間のユーザと効果的に協力するためには、人間の意図を正確に予測する能力が不可欠である。
しかし、この協力の能力は、依然として重大な欠陥、つまり共通の基盤をモデル化できないことで制限されている。
本稿では,人間-人間-AI,AI-AI,AI-AI,AI-AIの2組を交互に交互に交互に交互に交互に操作し,レキシケートされたラベルとは無関係な物体の写真と一致するような,人-人間-AI,人間-AI,AI-AIの2組からなる因子的設計による参照通信実験について述べる。
データ収集のためのオンラインパイプライン、正確性、効率性、語彙重なりに関するツールと分析、およびLVLMが参照表現を対話的に解決する際の限界を解き放つ356の対話(それぞれ89対)のコーパスをリリースする。
関連論文リスト
- Computational Turing Test Reveals Systematic Differences Between Human and AI Language [0.0]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするために社会科学でますます使われている。
既存の検証努力は人的判断に基づく評価に大きく依存している。
本稿では,LLMが人間の言語にどの程度近いかを評価するために,計算チューリングテストを提案する。
論文 参考訳(メタデータ) (2025-11-06T08:56:37Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Learning Human-Human Interactions in Images from Weak Textual
Supervision [15.71242350678679]
静止画像から自由テキストとして人間と人間の相互作用を学習する新しいパラダイムを提案する。
本手法により生成された擬似ラベルは,キャプションモデルのトレーニングに利用できることを示す。
私たちはWaldoやWendaとともにコードと擬似ラベルを公開します。
論文 参考訳(メタデータ) (2023-04-27T11:32:48Z) - Evaluating Human-Language Model Interaction [79.33022878034627]
我々は,対話型システムのコンポーネントを定義する,HALIE(Human-AI Language-based Interaction Evaluation)という新しいフレームワークを開発した。
ソーシャル対話,質問応答,クロスワードパズル,要約,メタファ生成という,対話のさまざまな形態をカバーする5つのタスクを設計する。
より優れた非対話的性能は、必ずしもより良い人間とLMの相互作用に必ずしも変換されない。
論文 参考訳(メタデータ) (2022-12-19T18:59:45Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。