“DeepSeek 的开源确实让外界 AI 开发者的研究成本降了不少。就像有人开玩笑所说的 DeepSeek 的模型是‘大模型界的拼多多’,因此特别适合高校团队。”香港大学黄超教授表示。
比如,在开发智能体和检索增强生成技术时,外界 AI 开发者可以直接使用 DeepSeek 开源的预训练模型和框架,这比使用 GPT 系列模型具有更大的成本优势。这不仅让更多资源有限的外界 AI 开发者也能参与到大模型研究中,更能让他们把更多精力放在创新和优化上。
之前,很多 AI 技术掌握在业界大厂手里。AI 学界由于 GPU 资源等限制,没有办法去尝试一些新想法。
这曾让宋林琦和团队在提出新的课题想法时,根本不知道什么样的技术 work、什么样的技术不 work。而现在,通过 DeepSeek 的开源技术再叠加 DeepSeek 开源的低成本训练技术,比如混合专家、大模型小型化技术的蒸馏、量化压缩、对齐机制、多任务注意力混合架构、去随机负载平衡等,能让宋林琦这样的外界 AI 开发者进行更快速的试错。
同时,DeepSeek 模型的开源也会让 AI 相关应用受益。其所使用的高效训练方法以及由此打造的更小型化的模型,不仅意味着更低的算力需求,也直接降低了 Token 成本,这让大模型的推理和生成变得更加经济高效。对于需要长期调用大模型进行复杂计算的应用场景而言,这具有极大的价值。
比如,在 AI for Science 领域,大模型已被广泛用于蛋白质结构预测、材料科学模拟、分子动力学计算等方向,而计算成本的降低也意味着更多科研团队均能负担得起高精度的 AI 计算,这让其可以使用更高效的小型化大模型完成类似任务,在提高研究效率的同时还能扩大 AI 的应用范围,同时还能加速科学发现的进程。
再比如,在 AI for Math 领域,大模型已被用于自动解题、数学证明生成、优化数学推理能力等任务,在数学教育和数学科研中的作用愈发凸显。