Posts 多模态模型 LLaVA-1.5-7B 只需一个 ”exe“ 文件本地部署方案 (支持 openai api 及 Chatbox使用,CPU/GPU 兼容,Mac/Windows/Linux 兼容)
Post
Cancel

多模态模型 LLaVA-1.5-7B 只需一个 ”exe“ 文件本地部署方案 (支持 openai api 及 Chatbox使用,CPU/GPU 兼容,Mac/Windows/Linux 兼容)

本方案采用 llamafile 的格式,只需单个文件即可跨平台运行模型,并提供 webui 界面和类 openai api 服务。极大的降低了使用门槛。关于 llamafile 可参考 llamafile使用指南 或者 项目地址

1. 第一步:下载 LLaVA-1.5-7B 模型

下载地址:LLaVA - modelscope.cn

这个模型是 70 亿参数的 int4 量化版本,3.99GB。

2. 第二步:运行 LLaVA-1.5-7B 模型

Windows 系统

  • 修改文件名,增加 .exe 后缀,如改成 llava-v1.5-7b-q4.exe
  • 打开 cmd 或者 terminal命令行窗口,进入模型所在目录
1
.\llava-v1.5-7b-q4.exe
  • 浏览器打开 http://127.0.0.1:8080 即可开始聊天

Linux、Mac 系统

  • 终端运行(注意 Mac 系统可能需要授权,在【设置】→ 【隐私与安全】点击【仍然打开】进行授权)
1
./llava-v1.5-7b-q4.llamafile
  • 浏览器打开 http://127.0.0.1:8080 即可开始聊天

效果截图

LLaVA llamafile 演示

chatbox 等 gpt 客户端使用设置

选择 openai api,设置 url 为对应的 ip 和端口即可,如下图所示: chatbox

python 接口调用

1
2
3
4
5
6
7
8
9
10
11
12
13
14
#!/usr/bin/env python3
from openai import OpenAI
client = OpenAI(
    base_url="http://localhost:8080/v1", # "http://<Your api-server IP>:port"
    api_key = "sk-no-key-required"
)
completion = client.chat.completions.create(
    model="LLaMA_CPP",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "hello"}
    ]
)
print(completion.choices[0].message)

可选参数说明

  • -ngl 999 表示模型的多少层放到 GPU 运行,其他在 CPU 运行,如果没有 GPU 则可设置为 -ngl 0 ,默认是 999,也就是全部在 GPU 运行(需要装好驱动和 CUDA 运行环境)。
  • --host 0.0.0.0 web 服务的hostname,如果只需要本地访问可设置为 --host 127.0.0.1 ,默认是0.0.0.0 ,即网络内可通过 ip 访问。
  • --port 8080 web服务端口,默认 8080 ,可通过该参数修改。
  • -t 16 线程数,当 cpu 运行的时候,可根据 cpu 核数设定多少个内核并发运行。
  • 其他参数可以通过 --help 查看。

其他可独立运行的模型大集合

llamafile 模型集合


邀请您关注我的公众号,我将会不时地为您推送独家原创的技术内容分享。
This post is licensed under CC BY 4.0 by the author.

零一万物 Yi-6B-Chat 只需一个 ”exe“ 文件本地部署方案 (支持 openai api 及 Chatbox使用,CPU/GPU 兼容,Mac/Windows/Linux 兼容)

通义千问 Qwen1.5-7B-Chat 及 Qwen1.5-14B-Chat 单个 ”exe“ 文件本地部署 (支持 openai api/Chatbox 使用,CPU/GPU 兼容,Mac/Windows/Linux 兼容)

Trending Tags