标签: 模型
包含标签 "模型" 的所有文章:
可视化AI模型CNN和Transformer
发表: at 04:00Scalable. Interactive. Interpretable. At Georgia Tech, we innovate scalable, interactive, and interpretable tools that amplify human's ability to understand and interact with billion-scale data and machine learning models.
小白也能懂的混合专家模型(MoE)深度解析
发表: at 20:30混合专家模型(MoE)作为一种强大的模型架构,正在成为大模型时代的热门话题。本文将带你深入了解MoE的神秘面纱,从其基本概念、核心组件,到训练方法和应用场景,用通俗易懂的语言和生动的实例,让你即使没有深厚的技术背景,也能轻松掌握MoE的关键技术细节。
Transformer模型详解
发表: at 12:00Attention Is All You Need是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。
CNN、RNN和DNN:神经网络界的三剑客
发表: at 05:50我想一定很多人听过CNN,DNN,RNN,但他们有何不同呢?很多人又不是很清楚,今天我们就来拆解下CNN,DNN,RNN,看看它们各自的优势和不同~
深度解析Transformer模型及其核心组件
发表: at 15:30Transformer模型以其卓越的性能和广泛的应用成为了新一代的领航者。这篇文章将带您深入探索Transformer模型的奥秘,从基础的注意力机制到复杂的编码器-解码器架构,再到多头注意力和位置编码的巧妙融合。无论您是AI领域的新手还是资深研究者,都能通过本文获得对Transformer模型深刻的理解和认识。