Ollama Prerelease 0.4 新增Llama 3.2 Vision支持

2024 年 10 月 28 日 星期一(已编辑)
/
47

Ollama Prerelease 0.4 新增Llama 3.2 Vision支持

Ollama的vison模型支持一直都特别慢,在之前也只有llava和minicpm支持,之后也一直没有给其他模型添加。

现在是终于添加了新的多模态模型支持,不知道新的多模态什么时候也加进去。

https://github.com/ollama/ollama/releases/tag/v0.4.0-rc5

这次0.4的主要更新内容

improved performance on new generation NVIDIA graphics cards (e.g. RTX 40 series)

在新世代 NVIDIA 图形卡(如 RTX 40 系列)上提升了性能

Sending follow on requests to vision models will now be much faster

向视觉模型发送后续请求将变得快得多

Fixed issues where stop sequences would not be detected correctly

修复了停止序列无法正确检测的问题

  • Loading...
  • Loading...
  • Loading...
  • Loading...
  • Loading...