Transformer 架构详解:从注意力机制到GPT系列
深入解析 Transformer 的核心组件 Self-Attention、位置编码、前馈网络,以及 GPT 系列的演进之路
系统化的技术笔记与学习沉淀
深入解析 Transformer 的核心组件 Self-Attention、位置编码、前馈网络,以及 GPT 系列的演进之路
详细记录 LoRA 微调技术的原理、实践步骤、以及在中文模型上的调优经验
使用 Ollama 在本地机器上快速部署和运行 Llama 3、Qwen 等主流开源大模型
构建企业级 RAG 系统:文档加载、文本分割、向量检索、答案生成的完整流程
主流大模型量化方法解析:量化原理、不同算法的性能对比与部署建议
为开发者准备的数学基础:概率分布、交叉熵、KL 散度等核心概念在大模型中的应用
掌握大模型分布式训练技术:数据并行、模型并行、ZeRO 优化器详解
构建智能 Agent 系统:ReAct 框架、工具调用、记忆机制实现指南
深入理解注意力机制原理:Query、Key、Value 详解以及多头注意力的实现