論文の概要: Trust in Vision-Language Models: Insights from a Participatory User Workshop
- arxiv url: http://arxiv.org/abs/2511.13458v1
- Date: Mon, 17 Nov 2025 15:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.316233
- Title: Trust in Vision-Language Models: Insights from a Participatory User Workshop
- Title(参考訳): ビジョン・ランゲージモデルへの信頼:参加型ユーザワークショップから
- Authors: Agnese Chiatti, Lara Piccolo, Sara Bernardini, Matteo Matteucci, Viola Schiaffonati,
- Abstract要約: 本稿では,VLM(Vision-Language Models)ユーザを対象としたユーザ中心ワークショップの予備的結果を示す。
このパイロットワークショップからの洞察は、ユーザ-VLMインタラクションのケースに合うように、参加者のエンゲージメントのための信頼度と戦略の文脈化を目的とした将来の研究を通知する。
- 参考スコア(独自算出の注目度): 8.614617700404944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing deployment of Vision-Language Models (VLMs), pre-trained on large image-text and video-text datasets, it is critical to equip users with the tools to discern when to trust these systems. However, examining how user trust in VLMs builds and evolves remains an open problem. This problem is exacerbated by the increasing reliance on AI models as judges for experimental validation, to bypass the cost and implications of running participatory design studies directly with users. Following a user-centred approach, this paper presents preliminary results from a workshop with prospective VLM users. Insights from this pilot workshop inform future studies aimed at contextualising trust metrics and strategies for participants' engagement to fit the case of user-VLM interaction.
- Abstract(参考訳): VLM(Vision-Language Models)のデプロイが増加し、大きな画像テキストとビデオテキストのデータセットで事前トレーニングされているため、ユーザに対して、これらのシステムをいつ信頼するかを判断するためのツールを提供することが不可欠である。
しかしながら、VLMに対するユーザの信頼がどのように構築され、進化するかを調べることは、未解決の問題である。
この問題は、実験的な検証のための裁判官としてのAIモデルへの依存が増し、ユーザと直接参加型デザイン研究を実行するコストと意味を回避したことにより、さらに悪化する。
本稿では,ユーザ中心のアプローチに続き,将来的なVLMユーザを対象としたワークショップの事前結果を示す。
このパイロットワークショップからの洞察は、ユーザ-VLMインタラクションのケースに合うように、参加者のエンゲージメントのための信頼度と戦略の文脈化を目的とした将来の研究を通知する。
関連論文リスト
- Vlaser: Vision-Language-Action Model with Synergistic Embodied Reasoning [124.48672228625821]
Vlaser - 相乗的具体的推論機能を備えたビジョン・ランゲージ・アクション・モデルを紹介する。
Vlaserは、様々な具体的推論ベンチマークで最先端のパフォーマンスを達成する。
提案手法は,WidowXベンチマークの最先端結果と,Google Robotベンチマークの競合性能を実現する。
論文 参考訳(メタデータ) (2025-10-13T05:51:22Z) - Mapping User Trust in Vision Language Models: Research Landscape, Challenges, and Prospects [5.38725681861465]
視覚言語モデル(VLM)は、大規模な画像テキストおよびビデオテキストデータセットで事前訓練されている。
本研究は,ユーザ-VLMインタラクションにおける信頼ダイナミクスに関する研究についてレビューする。
今後のVLM信頼研究の予備的要件について,将来的なVLMユーザによるワークショップからの文献的洞察と調査結果を報告する。
論文 参考訳(メタデータ) (2025-05-08T15:02:49Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.266685603250416]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースの対話型フィードバック機能によって,LLMへのユーザ参加が期待できるかを検討する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Trust-Oriented Adaptive Guardrails for Large Language Models [9.719986610417441]
ガードレールは、有害または有害な応答を抑えることで、大きな言語モデル(LLM)が人間の価値と整合することを保証するように設計されている。
既存のガードレールには、さまざまなユーザグループのニーズを満たすための、十分に確立された方法論が欠如している。
ユーザ信頼度に基づいて,機密コンテンツへの動的アクセスを適度に行うための適応ガードレール機構を導入する。
論文 参考訳(メタデータ) (2024-08-16T18:07:48Z) - Human-in-the-loop Fairness: Integrating Stakeholder Feedback to Incorporate Fairness Perspectives in Responsible AI [4.0247545547103325]
公正は人工知能(AI)を用いたリスクの高い意思決定への関心が高まっている
普遍的に受け入れられる公正度尺度はなく、公正性は文脈依存であり、公正と見なされるものに関して矛盾する視点があるかもしれない。
私たちの作業は、ステークホルダーが特定の決定インスタンスとその公正性に関する結果に対してフィードバックをすることができるアプローチに従っています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Eliciting Model Steering Interactions from Users via Data and Visual
Design Probes [8.45602005745865]
ドメインの専門家は、機械学習(ML)モデルを作業に組み込むために、自動化データサイエンスツールをますます活用しています。
これらの専門家にとって、セマンティックなインタラクションは、技術的な詳細を掘り下げることなく、MLモデルをガイドし、洗練するためのアクセス可能な道を提供することができる。
本研究では,MLの専門知識を持つ専門家が意味的相互作用を用いて,単純な分類モデルを更新する方法について検討する。
論文 参考訳(メタデータ) (2023-10-12T20:34:02Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。