Ollama Prerelease 0.4 新增Llama 3.2 Vision支持
Ollama的vison模型支持一直都特别慢,在之前也只有llava和minicpm支持,之后也一直没有给其他模型添加。
现在是终于添加了新的多模态模型支持,不知道新的多模态什么时候也加进去。
https://github.com/ollama/ollama/releases/tag/v0.4.0-rc5
这次0.4的主要更新内容
improved performance on new generation NVIDIA graphics cards (e.g. RTX 40 series)
在新世代 NVIDIA 图形卡(如 RTX 40 系列)上提升了性能
Sending follow on requests to vision models will now be much faster
向视觉模型发送后续请求将变得快得多
Fixed issues where stop sequences would not be detected correctly
修复了停止序列无法正确检测的问题