标签: LLM
包含标签 "LLM" 的所有文章:
从知识到智能:深入理解RAG技术与其生态系统
发表: at 11:30RAG,全称为检索增强生成(Retrieval-Augmented Generation),是一种结合了信息检索(Retrieval)和文本生成(Generation)的大语言模型应用架构。其核心思想是在生成文本的过程中,不仅依赖预训练语言模型的内部知识,还引入外部知识库的数据,从而提高生成内容的准确性和实用性。
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
发表: at 13:00随着大型语言模型(LLM)规模和复杂度的指数级增长,推理效率已成为人工智能领域亟待解决的关键挑战。当前,GPT-4、Claude 3和Llama 3等大模型虽然表现出强大的理解与生成能力,但其自回归解码过程中的计算冗余问题依然显著制约着实际应用场景中的响应速度和资源利用效率。
从tokenizer说起,为LLM自回归预训练准备数据集-大模型炼丹术
发表: at 11:50本文首先介绍了如何从头开始实现一个自定义tokenizer,用于将原始文本数据转化为模型能够理解的格式。通过这个例子,来直观理解什么是tokenize;接着,分析这种tokenizer的优缺点,引出更常用的BPE;最后,基于BPE构建的tokenizer,构建用于GPT预训练时的数据加载器。
好书推荐 |《从零构建大模型》:从理论到实践,手把手教你打造自己的大语言模型
发表: at 03:30今天推荐的这本书——《从零构建大模型》(原书名 Build a Large Language Model (From Scratch))正好填补了这一空白。它不仅讲透了大模型的基本原理,更从实际出发,带领读者从最底层一步步构建出一个完整的 GPT风格 的模型,实现训练、微调和部署。
好书推荐 |《大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)》
发表: at 11:20在人工智能技术飞速迭代的今天,大语言模型(LLM)已成为推动技术落地的核心引擎。然而,如何从零开始掌握大模型应用开发的核心逻辑?如何将GPT-4、ChatGPT等前沿技术转化为实际生产力?《大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)》一书为开发者提供了系统化的答案。作为热销2万册的经典升级版,本书不仅是初学者的“最小可用知识”手册,更是进阶者构建复杂AI应用的实战指南。
推荐5本学习LLM书籍
发表: at 13:00《大模型基础》、《动手学深度学习》、《大规模语言模型:从理论到实践》、《动手实践大型语言模型》和《动手学大模型Dive into LLMs》。
爬虫在deepseek加持下所向无敌
发表: at 15:00AI大模型时代下的爬虫人也需要紧跟智能的潮流,抓住模型发展的契机,使用AI创建新的爬虫定义新的爬虫范式!数据的解析、整理、格式化可以让大模型来提高处理的效率!