論文の概要: fCrit: A Visual Explanation System for Furniture Design Creative Support
- arxiv url: http://arxiv.org/abs/2508.12416v1
- Date: Sun, 17 Aug 2025 16:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.758623
- Title: fCrit: A Visual Explanation System for Furniture Design Creative Support
- Title(参考訳): fCrit:家具デザイン創造支援のためのビジュアル説明システム
- Authors: Vuong Nguyen, Gabriel Vigliensoni,
- Abstract要約: fCritは、家具の設計を説明責任に焦点をあてて批判するために設計された対話型AIシステムである。
芸術における説明責任は、AIの推論を透過的にするだけでなく、ユーザーが自分のデザインについて考え、話す方法にも適応させるべきだ、と私たちは主張する。
- 参考スコア(独自算出の注目度): 1.3581810800092389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce fCrit, a dialogue-based AI system designed to critique furniture design with a focus on explainability. Grounded in reflective learning and formal analysis, fCrit employs a multi-agent architecture informed by a structured design knowledge base. We argue that explainability in the arts should not only make AI reasoning transparent but also adapt to the ways users think and talk about their designs. We demonstrate how fCrit supports this process by tailoring explanations to users' design language and cognitive framing. This work contributes to Human-Centered Explainable AI (HCXAI) in creative practice, advancing domain-specific methods for situated, dialogic, and visually grounded AI support.
- Abstract(参考訳): 本稿では,家具設計を批判する対話型AIシステムfCritを紹介する。
反射学習と形式解析を基礎として、fCritは構造化設計知識ベースによって通知されるマルチエージェントアーキテクチャを採用している。
芸術における説明責任は、AIの推論を透過的にするだけでなく、ユーザーが自分のデザインについて考え、話す方法にも適応させるべきだ、と私たちは主張する。
ユーザのデザイン言語と認知フレーミングの説明をカスタマイズすることで、fCritがこのプロセスをどのようにサポートするかを実証する。
この研究は、人間中心のExplainable AI(HCXAI)の創造的実践に寄与し、位置、ダイアログ、視覚的基盤を持つAIサポートのためのドメイン固有のメソッドを前進させる。
関連論文リスト
- Rhetorical XAI: Explaining AI's Benefits as well as its Use via Rhetorical Design [3.386401892906348]
本稿では,レトリックデザインを記述可能な人工知能(XAI)システムに組み込むことによる潜在的なメリットについて考察する。
Rhetoric Designは、AIシステムとユーザ間の説明のコミュニケーション的役割を分析するための有用なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-14T23:57:17Z) - From Fragment to One Piece: A Survey on AI-Driven Graphic Design [19.042522345775193]
この調査では、視覚要素の知覚と生成、美的および意味的理解、レイアウト分析、生成など、さまざまなサブタスクをカバーしている。
著しい進歩にもかかわらず、人間の意図を理解し、解釈可能性を確保し、多層構成の制御を維持することが課題である。
論文 参考訳(メタデータ) (2025-03-24T13:05:09Z) - Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - VISHIEN-MAAT: Scrollytelling visualization design for explaining Siamese
Neural Network concept to non-technical users [8.939421900877742]
本研究は,非技術ユーザに対してAIの概念を効果的に説明可能なスクロールテリングを作成するための,新たな可視化設計を提案する。
当社のアプローチは,セールスピッチのような短期間の状況に価値ある視覚化を実現する上で有効です。
論文 参考訳(メタデータ) (2023-04-04T08:26:54Z) - Designerly Understanding: Information Needs for Model Transparency to
Support Design Ideation for AI-Powered User Experience [42.73738624139124]
設計者は、事前訓練された言語モデルなどのAI技術を設計材料として理解するハードルに直面します。
これにより、AIの使用方法、場所、使用方法について、アイデアと意思決定の能力が制限される。
私たちの研究は、UXデザイナがResponsible AIで果たせる重要な役割を強調します。
論文 参考訳(メタデータ) (2023-02-21T02:06:24Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Explainability Case Studies [2.2872132127037963]
説明可能性(Explainability)は、AIシステムの設計における重要な倫理概念の1つである。
本稿では, 製品設計者, 開発者, 学生, 教育者に対して, 自社製品に対する総合的な説明可能性戦略を開発するための教育ツールとして機能する, 仮説的AI対応製品に関する一連のケーススタディを提案する。
論文 参考訳(メタデータ) (2020-09-01T05:54:15Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。