资讯
最近分享的文章
Open WebUI:一键部署私有化 AI 交互平台的开源利器,狂揽 95k stars!
发表: at 13:00Open WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs)。特点:可扩展、功能丰富、自托管、可完全离线运行。
Attention机制详解
发表: at 12:00相信做NLP的同学对这个机制不会很陌生,它在Attention is all you need可以说是大放异彩,在machine translation任务中,帮助深度模型在性能上有了很大的提升,输出了当时最好的state-of-art model。
语言模型:过去、现在、未来
发表: at 04:00语言模型与深度学习相结合产生的神经语言模型具有强大的表示和学习能力,代表着语言模型发展到了一个新的阶段,特别是其中的预训练语言模型已经成为当今自然语言处理的核心技术。本文回顾语言模型的历史,总结语言模型的现状,并展望语言模型的未来。
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
发表: at 11:002025 新年伊始,在很多趋势都还不明朗的情况下,几位 AI 业界的重要人物几乎在同一时间做出了类似的判断 ——2025 年将是 AI Agent 之年。没想到,MiniMax 很快就有了动作:开源了最新的基础语言模型 MiniMax-Text-01 和视觉多模态模型 MiniMax-VL-01。新模型的最大亮点是,在业内首次大规模实现了新的线性注意力机制,这使得输入的上下文窗口大大变长:一次可处理 400 万 token,是其他模型的 20-32 倍。他们相信,这些模型能够给接下来一年潜在 Agent 相关应用的爆发做出贡献。
小白也能懂的混合专家模型(MoE)深度解析
发表: at 20:30混合专家模型(MoE)作为一种强大的模型架构,正在成为大模型时代的热门话题。本文将带你深入了解MoE的神秘面纱,从其基本概念、核心组件,到训练方法和应用场景,用通俗易懂的语言和生动的实例,让你即使没有深厚的技术背景,也能轻松掌握MoE的关键技术细节。
z-library + calibre,让落灰的 kindle 重见天日
发表: at 05:00突然就特别想用 kindle 看这些书籍,然后给擦灰、充电,一整套动作下来,发现没办法把我想看的书籍搞到 kindle 里。估计很多人都知道,kindle 在国内已经停止服务了,没办法按照官方的途径购买想看的书籍。于是想到了晓辉,我记得他一直用 kindle 看书。然后就他,怎么在现在这种情况下,还能让我的 kindle 变废为宝。晓辉告诉了我他用的方法:z-library + calibre。
Transformer源码解读
发表: at 13:00之前我们一起了解了attention、transformer的原理,本文将会基于github的一个 transformer (下文会针对我对该代码的一个改版讲解)开源代码进行代码分析讲解,该代码相比于Google提供的tensor2tensor/transformer代码更简单,也更容易理解。
TaleBook:简单好用的个人图书管理系统
发表: at 12:00你是否曾经为管理电子书而烦恼?面对杂乱无章的书籍文件,想要快速找到某一本书却总是费时费力?或者,你是否希望有一个私人的电子书库,可以随时随地访问,还能与朋友分享?如果你也有这些困扰,那么今天介绍的这款开源工具——TaleBook,或许正是你需要的解决方案!
用 Tailscale 快速搭建私人 VPN 网络
发表: at 04:00在日常开发和运维中,跨网络访问服务器、设备或服务是常见需求。传统 VPN 方案可能需要复杂的配置和部署,而 Tailscale 提供了一种简单、安全的方式,通过基于 WireGuard 的技术,快速构建私人网络。本文将详细介绍如何使用 Tailscale 搭建私人 VPN 网络,实现设备间的安全互联。
Transformer模型详解
发表: at 12:00Attention Is All You Need是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。