論文の概要: Adventures of Trustworthy Vision-Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2312.04231v1
- Date: Thu, 7 Dec 2023 11:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 15:04:43.172553
- Title: Adventures of Trustworthy Vision-Language Models: A Survey
- Title(参考訳): 信頼できる視覚言語モデルの冒険:調査
- Authors: Mayank Vatsa, Anubhooti Jain, Richa Singh
- Abstract要約: 本稿では,バイス,ロバスト性,解釈可能性の3つの基本原理を用いて,視覚言語変換器の徹底的な検証を行う。
本研究の主な目的は, トランスフォーマーの実用化に伴う複雑さと複雑さを掘り下げることであり, 信頼性と説明責任を高める方法の理解を深めることである。
- 参考スコア(独自算出の注目度): 54.76511683427566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, transformers have become incredibly popular in computer vision and
vision-language tasks. This notable rise in their usage can be primarily
attributed to the capabilities offered by attention mechanisms and the
outstanding ability of transformers to adapt and apply themselves to a variety
of tasks and domains. Their versatility and state-of-the-art performance have
established them as indispensable tools for a wide array of applications.
However, in the constantly changing landscape of machine learning, the
assurance of the trustworthiness of transformers holds utmost importance. This
paper conducts a thorough examination of vision-language transformers,
employing three fundamental principles of responsible AI: Bias, Robustness, and
Interpretability. The primary objective of this paper is to delve into the
intricacies and complexities associated with the practical use of transformers,
with the overarching goal of advancing our comprehension of how to enhance
their reliability and accountability.
- Abstract(参考訳): 近年,コンピュータビジョンや視覚言語タスクにおいて,トランスフォーマーは非常に人気がある。
この顕著な普及は、主に注意機構によって提供される能力と、トランスフォーマーが様々なタスクやドメインに適応して適用できる優れた能力に起因している。
それらの汎用性と最先端のパフォーマンスは、幅広いアプリケーションに欠かせないツールとして確立しています。
しかし、常に変化する機械学習の世界では、トランスフォーマーの信頼性の保証が最も重要である。
本稿では,責任あるaiの3つの基本原理(バイアス,ロバスト性,解釈性)を用いて,視覚言語トランスフォーマーを徹底的に検討する。
本研究の主な目的は, トランスフォーマーの実用化に伴う複雑さと複雑さを掘り下げることであり, 信頼性と説明責任を高める方法の理解を深めることである。
関連論文リスト
- Transformer in Touch: A Survey [29.622771021984594]
自然言語処理の分野で最初に大きな成功を収めたTransformerモデルは、最近、触覚認識の応用に大きな可能性を示している。
本稿では,触覚技術におけるトランスフォーマーの適用と開発について概観する。
論文 参考訳(メタデータ) (2024-05-21T13:26:27Z) - Explainability of Vision Transformers: A Comprehensive Review and New
Perspectives [11.853186902106067]
トランスフォーマーは自然言語処理に大きな影響を与え、最近コンピュータビジョンにおけるその可能性を実証した。
本研究では、視覚変換器に提案する様々な説明可能性手法について検討し、それらを分類するための分類法を提案する。
分析結果の比較に使用できる評価基準の総合的なレビューを提供する。
論文 参考訳(メタデータ) (2023-11-12T09:23:40Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Learning Explicit Object-Centric Representations with Vision
Transformers [81.38804205212425]
我々は、マスク付き自動符号化の自己超越タスクを構築し、トランスフォーマーを用いたオブジェクト中心表現学習の有効性を探求する。
複数のマルチオブジェクト・ベンチマークのセグメンテーション・メトリクスによって測定された単純なシーンを効率的に分解できることを示す。
論文 参考訳(メタデータ) (2022-10-25T16:39:49Z) - Vision Transformers: State of the Art and Research Challenges [26.462994554165697]
本稿では,異なるアーキテクチャ設計と視覚変換器のトレーニング手法に関する文献の概要を概説する。
我々の目標は、オープンな研究機会を体系的にレビューすることです。
論文 参考訳(メタデータ) (2022-07-07T02:01:56Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - Tensor-to-Image: Image-to-Image Translation with Vision Transformers [0.0]
本稿では,視覚変換器を用いたカスタムデザインモデルであるテンソル・ツー・イメージを用いて画像変換を行う。
自己注意の助けを借りて、我々のモデルは1つの修正なしに様々な問題に一般化および適用することができた。
論文 参考訳(メタデータ) (2021-10-06T17:57:45Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z) - A Survey on Visual Transformer [126.56860258176324]
Transformerは、主に自己認識機構に基づくディープニューラルネットワークの一種である。
本稿では、これらの視覚変換器モデルについて、異なるタスクで分類し、それらの利点と欠点を分析することでレビューする。
論文 参考訳(メタデータ) (2020-12-23T09:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。