持续学习 · 深度实践

探索开源大模型技术
构建智能应用未来

专注于开源大模型的学习记录与实验总结,
分享技术心得,沉淀实战经验

28 技术文章
156 实验记录
12 模型测试

知识库

系统化的技术笔记与学习沉淀

理论基础 2026年2月28日

Transformer 架构详解:从注意力机制到GPT系列

深入解析 Transformer 的核心组件 Self-Attention、位置编码、前馈网络,以及 GPT 系列的演进之路

大模型工程 2026年2月20日

LoRA 微调实战:低成本打造个性化大模型

详细记录 LoRA 微调技术的原理、实践步骤、以及在中文模型上的调优经验

部署运维 2026年2月15日

Ollama 本地部署:开源大模型运行指南

使用 Ollama 在本地机器上快速部署和运行 Llama 3、Qwen 等主流开源大模型

应用开发 2026年2月10日

RAG 检索增强生成:从理论到 LangChain 实现

构建企业级 RAG 系统:文档加载、文本分割、向量检索、答案生成的完整流程

部署运维 2026年2月5日

模型量化技术:AWQ、GPTQ 与 GGUF 对比

主流大模型量化方法解析:量化原理、不同算法的性能对比与部署建议

理论基础 2026年1月28日

大模型基础数学:概率论与信息论入门

为开发者准备的数学基础:概率分布、交叉熵、KL 散度等核心概念在大模型中的应用

内容分类

理论基础

深入理解大模型背后的数学原理与核心算法

大模型工程

掌握预训练、微调、推理优化等工程实践技能

部署运维

学习模型量化、本地部署、性能优化的完整流程

应用开发

基于大模型构建智能应用与Agent系统

关于本站

MindLynx 是我用于记录开源大模型技术学习心得的个人站点,专注于 AI 时代理论与实践的结合。

📝 技术笔记 - 系统整理学习记录
🧪 实验记录 - 部署测试经验
💡 经验分享 - 踩坑解决方案