論文の概要: Transformations in the Time of The Transformer
- arxiv url: http://arxiv.org/abs/2401.10897v2
- Date: Thu, 25 Jan 2024 15:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 17:00:17.565092
- Title: Transformations in the Time of The Transformer
- Title(参考訳): 変圧器時代の変質
- Authors: Peyman Faratin, Ray Garcia, Jacomo Corbo
- Abstract要約: この記事では、企業がAIファースト組織への転換の旅を始めるとき、合理的な選択を行うための組織的なフレームワークを提供します。
提供される選択は全体的、意図的、情報的であり、注意散らしを避ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Foundation models offer a new opportunity to redesign existing systems and
workflows with a new AI first perspective. However, operationalizing this
opportunity faces several challenges and tradeoffs. The goal of this article is
to offer an organizational framework for making rational choices as enterprises
start their transformation journey towards an AI first organization. The
choices provided are holistic, intentional and informed while avoiding
distractions. The field may appear to be moving fast, but there are core
fundamental factors that are relatively more slow moving. We focus on these
invariant factors to build the logic of the argument.
- Abstract(参考訳): 基盤モデルは、既存のシステムとワークフローを新しいaiファーストパースペクティブで再設計する新しい機会を提供する。
しかし、この機会の運用にはいくつかの課題とトレードオフがある。
この記事では、企業がAIファースト組織への転換の旅を始めるとき、合理的な選択を行うための組織的なフレームワークを提供することを目標にしています。
提供される選択は全体的、意図的、情報的であり、注意散らしを避ける。
フィールドは速く動いているように見えるかもしれないが、相対的に遅く動く基本的な要素がある。
我々は、引数の論理を構築するためにこれらの不変因子に焦点を当てる。
関連論文リスト
- Visual Agents as Fast and Slow Thinkers [88.6691504568041]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Large Sequence Models for Sequential Decision-Making: A Survey [33.35835438923926]
トランスフォーマーはRLコミュニティへの関心が高まり、顕著な有効性と一般化性を持った多くのアプローチを生み出した。
本稿では, シーケンシャル意思決定における大規模シーケンスモデルの有効性向上を目的とした, 今後の研究に向けて, 様々な方法を提案する。
論文 参考訳(メタデータ) (2023-06-24T12:06:26Z) - Fast and Slow Planning [25.91512962807549]
SOFAIは、高速または遅いと特徴付ける異なる機能と、それらを制御するメタ認知モジュールを備えた、複数の解決アプローチを利用する。
このシステムの振舞いは最先端の解法と比較され、新たに導入されたシステムは一般性の観点からより良い結果を示すことを示す。
論文 参考訳(メタデータ) (2023-03-07T23:05:38Z) - Transformers from an Optimization Perspective [24.78739299952529]
本研究では,トランスフォーマーモデルに基づくエネルギー関数の探索問題について検討する。
このような関数を見つけることで、解釈可能な最適化プロセスの展開として変換器を再解釈することができる。
この研究はトランスフォーマーの直感と理解に寄与し、新しいモデル設計の基礎を築き上げている可能性がある。
論文 参考訳(メタデータ) (2022-05-27T10:45:15Z) - A simple framework for contrastive learning phases of matter [2.2045685167306246]
SimCLPは、物質の対照的な学習フェーズのためのフレームワークである。
フレキシブルで、手動のフィーチャエンジニアリングや事前の知識など、通常の負担を伴わない。
表現ベクトルやラベルを生成することができ、それによって他の問題に取り組むのに役立つ。
論文 参考訳(メタデータ) (2022-05-11T16:25:33Z) - Local-to-Global Self-Attention in Vision Transformers [130.0369761612812]
トランスフォーマーはコンピュータビジョンタスクに大きな可能性を示した。
最近のTransformerモデルは階層設計を採用しており、セルフアテンションはローカルウィンドウ内でのみ計算される。
この設計は効率を大幅に改善するが、早い段階ではグローバルな特徴推論が欠如している。
本研究では,トランスフォーマーのマルチパス構造を設計し,各ステージにおける複数の粒度での局所的・言語的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-10T02:34:55Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Transformers with Competitive Ensembles of Independent Mechanisms [97.93090139318294]
隠れた表現とパラメータを複数のメカニズムに分割し、注意を通して情報を交換する新しいトランスフォーマー層を提案する。
TIM を大規模 BERT モデル、画像変換器、および音声強調について研究し、意味的に意味のある専門化とパフォーマンスの向上の証拠を見つけます。
論文 参考訳(メタデータ) (2021-02-27T21:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。