AI教程2026年4月12日本地大模型推理加速指南:DFlash MLX、vLLM Qwen 与 Ollama 优化实践本文深度解析本地 AI 推理的最新突破,涵盖 Apple Silicon 上的 DFlash 投机采样技术、vLLM 在多显卡环境下的 Qwen 397B 部署方案,以及针对消费级显卡的 Ollama 性能优化实战指南。阅读全文 →
AI教程2026年4月6日使用 Claude Code 免费运行 397B 参数 AI 模型教程本教程将教你如何通过 Claude Code 和 Ollama Cloud,仅需三条命令即可在 Windows 上免费运行 Qwen 3.5 397B 超大规模模型,无需本地 GPU。阅读全文 →
AI教程2026年3月23日使用本地 LLM 运行 Karpathy 的 autoresearch 实现零成本自主 AI 研究本教程将教你如何通过本地运行的 Qwen 3.5 9B 和 Ollama 复现 Andrej Karpathy 的自主 AI 研究实验,在无需支付 API 费用的情况下实现自动化的模型优化循环。阅读全文 →