Google 宣布扩展 Gemini AI 模型系列,增加现有模型的可用性。公司推出了更新的 Gemini 2.0 Flash 模型,并发布了 2.0 Pro 和 2.0 Flash Thinking 的实验版本。此外,Google 还推出了新的 2.0 Flash-Lite 模型,旨在提供最具成本效益的 AI 解决方案。这些举措旨在提升 AI 性能,并为开发者和用户提供更多选择。
随着生成式人工智能和 GPU 加速 AI 训练与推理的兴起,数据中心仍需关注 CPU 的重要性。现代化 CPU 不仅可以提升传统工作负载性能,还能帮助企业为昂贵的 AI 基础设施投资节省成本。高性能 CPU 可以显著提升 AI 推理和训练效率,同时在某些场景下直接运行 AI 算法。企业应考虑采用单插槽服务器等创新方案,以优化数据中心架构。