Phind现在默认使用我们自己的模型,该模型在编码能力上匹配并超越了GPT-4,同时运行速度提高了5倍。现在,您可以在10秒内获得高质量的技术问题答案,而不是50秒。 目前的第七代Phind模型是基于我们的开源CodeLlama-34B微调构建的,这是首批在HumanEval上击败GPT-4得分的模型,并且仍然是整体上最佳的开源编码模型。 Phind模型V7在HumanEval上达到了74.7%的pass@1 这个新模型已经在额外的70B+高质量代码和推理问题上进行了微调,并展示了74.7%的HumanEval得分。
然而,我们发现HumanEval并不是实际帮助性的良好指标。在我们的服务上部署了Phind模型的前几次迭代后,我们收集了详细的反馈,并注意到我们的模型在实际问题上大部分时间都与GPT-4的帮助性相匹配或超越。我们的Discord社区中的许多人开始独家使用Phind模型与Phind,尽管他们也可以无限制地使用GPT-4。
Phind模型的一个关键优势是它非常快。我们已经能够在使用NVIDIA的新TensorRT-LLM库的H100s上运行我们的模型时,实现了对GPT-4的5倍加速,达到每秒100个令牌的单流。
Phind模型的另一个关键优势是上下文 – 它支持多达16k令牌。我们目前在网站上允许最多12k令牌的输入,并为网络结果保留了剩余的4k。
Phind模型仍然存在一些粗糙的边缘,我们将继续不断地改进它。在某些具有挑战性的问题上,尽管它能够得到正确的答案,但Phind模型可能需要比GPT-4更多的迭代来得到正确的答案。
试试: https://www.phind.com/