标签: Transformer
包含标签 "Transformer" 的所有文章:
Transformer 过时了!MIT 液体神经网络 LNN 才是新趋势!
发表: at 13:30MIT突破性成果登顶Nature子刊!科学家受线虫微型大脑启发,研发出革命性19节点液态神经网络系统。这一脑启发的AI架构在自动驾驶控制任务中展现出惊人表现:仅用传统神经网络万分之一规模的神经元数量,即实现更优性能表现。
Transformer与混合专家(MoE):大型语言模型的架构对比
发表: at 15:00在自然语言处理(NLP)领域,Transformer模型凭借其强大的性能成为主流架构。然而,随着模型规模的不断扩大,计算效率和推理速度成为新的瓶颈。为了解决这些问题,混合专家(Mixture of Experts, MoE)架构应运而生。
深度学习五大模型:CNN、Transformer、BERT、RNN、GAN解析
发表: at 04:00今天探讨它们各自适用的场景,让您知道在何种情况下选择何种模型;同时分析它们的优势与局限,助您全面评估这些模型的性能。
可视化AI模型CNN和Transformer
发表: at 04:00Scalable. Interactive. Interpretable. At Georgia Tech, we innovate scalable, interactive, and interpretable tools that amplify human's ability to understand and interact with billion-scale data and machine learning models.
Transformer源码解读
发表: at 13:00之前我们一起了解了attention、transformer的原理,本文将会基于github的一个 transformer (下文会针对我对该代码的一个改版讲解)开源代码进行代码分析讲解,该代码相比于Google提供的tensor2tensor/transformer代码更简单,也更容易理解。
Transformer模型详解
发表: at 12:00Attention Is All You Need是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。
深度解析Transformer模型及其核心组件
发表: at 15:30Transformer模型以其卓越的性能和广泛的应用成为了新一代的领航者。这篇文章将带您深入探索Transformer模型的奥秘,从基础的注意力机制到复杂的编码器-解码器架构,再到多头注意力和位置编码的巧妙融合。无论您是AI领域的新手还是资深研究者,都能通过本文获得对Transformer模型深刻的理解和认识。