Ollama 现正式支持Function Calling功能
在4天前发布的0.3版本中,跟随llama3.1支持同时来的还有Functions功能,这毕竟是第一个完整支持这个功能的开源大模型,ollama现在支持也是正常的。
此前在使用Ollama做后端时只能使用prompt强制控制模型的输出结构,即使是官方的python sdk也是如此实现的,因此模型的逻辑能力和代码能力很重要。在小参数模型下未经微调,准确率可能50%都不到,之前测试的7b、8b的模型都不太行,更不用说0.5、1.5之类的小模型了。
现在有llama3.1标准版就支持funcitons之后,肯定也会有其他的厂商也会发布他们支持该功能的模型了,不用再去像我一样去研究奇技淫巧来实现相似的功能。
但是遗憾的是最小模型是8b的int4量化也大概需要4~5G的显存,对于本地部署的离线系统,为了使用这个功能还需要单独维持一个这么耗显存的模型还是有点不合适,比较我们处理图像的深度学习模型都才用了4G,希望能有其他厂家能开发小参数支持functions的模型把。但是即使是此功能已经有标准方案之后,还是无法代替问题分类器的功能,问题分类器能将内容更准确的分配给下级处理阶段,使其输出更符合要求。而且问题分类器也不需要专门运行一个模型,可以和chat模型共用节省珍贵的显卡资源。
v0.3.0发布地址和example v0.3.0