用户309
用户2839
用户6987模型 | 设备 | 资源 | 操作系统 | 推理支持 | 简介 | 下载地址 |
MiniCPM-o 2.6 | GPU | 18 G | Linux/Windows | vllm transformers | 最新版本,实现了在端侧上对视觉、语音和多模态直播的 GPT-4o 级性能。 | |
MiniCPM-o 2.6 gguf | CPU | 8G | 全平台 | llama.cpp | gguf 版本,更低的内存占用和更高的推理效率。 | |
MiniCPM-o 2.6 int4(gptq量化) | GPU | 9G | Linux/Windows | transformers/auto_gptq | gptq int4量化版,更低显存占用,但是由于反量化,速度可能下降。 |