論文の概要: FG 2025 TrustFAA: the First Workshop on Towards Trustworthy Facial Affect Analysis: Advancing Insights of Fairness, Explainability, and Safety (TrustFAA)
- arxiv url: http://arxiv.org/abs/2506.05095v1
- Date: Thu, 05 Jun 2025 14:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.76369
- Title: FG 2025 TrustFAA: the First Workshop on Towards Trustworthy Facial Affect Analysis: Advancing Insights of Fairness, Explainability, and Safety (TrustFAA)
- Title(参考訳): FG 2025 TrustFAA: the First Workshop on towards Trustworthy Facial Affect Analysis: Advancing Insights of Fairness, Explainability and Safety (TrustFAA)
- Authors: Jiaee Cheong, Yang Liu, Harold Soh, Hatice Gunes,
- Abstract要約: Towards Trustworthy Facial Affect Analysis”の最初のワークショップは、信頼性に関するさまざまな課題を調査している研究者を集結させることを目的としている。
このワークショップは、FG2025が倫理に重点を置いていることに合わせて、今年の申請に対する倫理的インパクトステートメントの要件が盛り込まれており、信頼できるFAAに関する研究、議論、対話を奨励することでFG2025の取り組みを支援している。
- 参考スコア(独自算出の注目度): 19.38860299928154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing prevalence and deployment of Emotion AI-powered facial affect analysis (FAA) tools, concerns about the trustworthiness of these systems have become more prominent. This first workshop on "Towards Trustworthy Facial Affect Analysis: Advancing Insights of Fairness, Explainability, and Safety (TrustFAA)" aims to bring together researchers who are investigating different challenges in relation to trustworthiness-such as interpretability, uncertainty, biases, and privacy-across various facial affect analysis tasks, including macro/ micro-expression recognition, facial action unit detection, other corresponding applications such as pain and depression detection, as well as human-robot interaction and collaboration. In alignment with FG2025's emphasis on ethics, as demonstrated by the inclusion of an Ethical Impact Statement requirement for this year's submissions, this workshop supports FG2025's efforts by encouraging research, discussion and dialogue on trustworthy FAA.
- Abstract(参考訳): Emotion AIを活用した顔影響分析(FAA)ツールの普及と展開に伴い、これらのシステムの信頼性に対する懸念が高まっている。
Towards Trustworthy Facial Affect Analysis: Advancing Insights of Fairness, Explainability, and Safety (TrustFAA)”に関する最初のワークショップは、信頼性に関するさまざまな課題(解釈可能性、不確実性、バイアス、プライバシなど)を調査している研究者を集結させることを目的としている。
このワークショップは、FG2025が倫理に重点を置いていることに合わせて、今年の申請に対する倫理的インパクトステートメントの要件が盛り込まれており、信頼できるFAAに関する研究、議論、対話を奨励することでFG2025の取り組みを支援している。
関連論文リスト
- Would You Rely on an Eerie Agent? A Systematic Review of the Impact of the Uncanny Valley Effect on Trust in Human-Agent Interaction [2.184775414778289]
アンカニー・バレー・エフェクト(英: Uncanny Valley Effect、UVE)は、人間のような人工的な生物が不気味さや忌避感を感じる現象である。
信頼とUVEへの関心が高まっているにもかかわらず、既存の研究はこれらの概念がどのように定義され、どのように運用されるかという点で広範囲に及んでいる。
本総説は,UVEがエージェントに対するヒトの信頼に与える影響を検証し,既存の実証文献の方法論的パターン,限界,ギャップを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-05-08T17:03:26Z) - Trustworthy AI Must Account for Intersectionality [5.244769696325465]
信頼できるAIは、公正性、プライバシ、堅牢性、説明可能性、不確実性定量化など、AIシステムを人間の価値と整合させるという願望的な側面を含んでいる。
ある側面を強化するための努力は、しばしば意図しないトレードオフを導入し、他人に悪影響を及ぼし、すべての側面を同時に改善することは困難になります。
我々は、それぞれの軸に沿った信頼に対処するには不十分な立場にある。代わりに、信頼に値するAIの研究は、アスペクト間の交差性を考慮し、すべての関連する軸を同時に総合的な視点を採用する必要がある。
論文 参考訳(メタデータ) (2025-04-09T18:00:00Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - REVAL: A Comprehension Evaluation on Reliability and Values of Large Vision-Language Models [59.445672459851274]
REVALは、Large Vision-Language Modelsの textbfREliability と textbfVALue を評価するために設計された包括的なベンチマークである。
REVALには144K以上の画像テキストビジュアル質問回答(VQA)サンプルが含まれており、信頼性と価値の2つの主要なセクションで構成されている。
主流のオープンソースLVLMや,GPT-4oやGemini-1.5-Proといった著名なクローズドソースモデルを含む26のモデルを評価した。
論文 参考訳(メタデータ) (2025-03-20T07:54:35Z) - Addressing Intersectionality, Explainability, and Ethics in AI-Driven Diagnostics: A Rebuttal and Call for Transdiciplinary Action [0.30693357740321775]
人工知能の医療診断への統合の増大は、その倫理的および実践的な意味を批判的に検証する必要がある。
本稿は、AIによる診断が多様な人口に公平かつ倫理的に役立っていることを保証するために、正確さと公正性、プライバシ、傾きのバランスをとるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-15T00:00:01Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - A Survey on Computer Vision based Human Analysis in the COVID-19 Era [58.79053747159797]
新型コロナウイルスの出現は、社会全体だけでなく、個人の生活にも大きく影響している。
マスクやソーシャルディスタンシングの義務、公共空間での定期消毒、スクリーニングアプリケーションの使用など、さまざまな予防策が世界中で導入されている。
これらの発展は、(i)視覚データの自動解析による予防対策の支援、(ii)生体認証などの既存の視覚ベースのサービスの正常な操作を容易にする、新しいコンピュータビジョン技術の必要性を喚起した。
論文 参考訳(メタデータ) (2022-11-07T17:20:39Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Saving Face: Investigating the Ethical Concerns of Facial Recognition
Auditing [17.42753238926119]
アルゴリズムによる監査は 人口を危険にさらす 効果があります これらの手段は 保護を意図しています
本稿では,商業的な顔処理技術の監査を行う場合の倫理的懸念点を5つ挙げる。
さらに、これらの懸念の具体的な図示を提供し、これらの懸念がアルゴリズム監査の役割に何を意味するのか、そしてそれらが明らかにする基本的な製品制限を反映して結論付けます。
論文 参考訳(メタデータ) (2020-01-03T20:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。