Transformer 架构详解:从注意力机制到GPT系列
深入解析 Transformer 的核心组件 Self-Attention、位置编码、前馈网络,以及 GPT 系列的演进之路
系统化的技术笔记与学习沉淀
深入解析 Transformer 的核心组件 Self-Attention、位置编码、前馈网络,以及 GPT 系列的演进之路
详细记录 LoRA 微调技术的原理、实践步骤、以及在中文模型上的调优经验
使用 Ollama 在本地机器上快速部署和运行 Llama 3、Qwen 等主流开源大模型
构建企业级 RAG 系统:文档加载、文本分割、向量检索、答案生成的完整流程
主流大模型量化方法解析:量化原理、不同算法的性能对比与部署建议
为开发者准备的数学基础:概率分布、交叉熵、KL 散度等核心概念在大模型中的应用
深入理解大模型背后的数学原理与核心算法
掌握预训练、微调、推理优化等工程实践技能
学习模型量化、本地部署、性能优化的完整流程
基于大模型构建智能应用与Agent系统
MindLynx 是我用于记录开源大模型技术学习心得的个人站点,专注于 AI 时代理论与实践的结合。