使用 LM Studio 本地部署 LLM

准备工作

你需要一台运行有 Windows、macOS 或 Linux 的电脑。考虑到 LLM 的生成速度,建议至少是台配备 NVIDIA 独立显卡的电脑,或是 Apple Silicon (M系列处理器) 的 Mac 电脑。


本地部署LLM - 以DeepSeek R1蒸馏版本为例

这里推荐使用 LM Studio 进行本地部署。相较于 Ollama,LM Studio 具有友好的 UI 界面,更丰富的功能集和更大的模型库。

如果你想尝试使用 Ollama 部署,可以参考这个教程:53AI知识库 - 本地部署大模型?看这篇就够了,Ollama 部署和实战

下载LM Studio

根据电脑的系统和处理器架构选择合适的版本下载:

下载 LM Studio

安装LM Studio

按照提示,安装即可。

下载适合的模型版本

点击搜索按钮:

搜索 DeepSeek R1 Distill(对于Mac电脑,建议在搜索框右侧取消勾选GGUF,仅勾选MLX):

考虑到下载时间可能比较长,可以从其他方式下载 DeepSeek-R1-Distill-Qwen-7B 的 GGUF 或 MLX 格式模型的离线文件,将文件移动到模型存放目录即可。模型存放目录可通过以下方式打开:

点击 My Models:

点击“…” → Open in File Explorer:

加载模型

点击 Developer:

启动本地服务:

点击加载模型。选择合适的模型,如果出现下面的选项框,无需改动直接 Load Model 即可:

然后就可以新建对话,在 LM Studio 中测试对话了。


本地LLM的简单应用

这里准备了一段实例代码,让部署在本地的 DeepSeek-R1-Distill-Qwen-7B 做一些简单的数据分析任务,并且根据它的知识库猜一猜所给数字的可能规律,以及预测下一位数字。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
# LLMtest.py
import requests
import json

def analyze_data():
analysis_text = f"1, 1, 2, 3, 5, 8, 13, 21" # 换成你的问题
return analysis_text

def get_llm_analysis(prompt):
api_url = "http://127.0.0.1:1234/v1/chat/completions" # 换成你的服务器地址

headers = {
"Content-Type": "application/json"
}

payload = {
"model": "DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf", # 换成你的模型名称
"messages": [
{
"role": "user",
"content": f"""{prompt}\n你是一位经验丰富的数据分析师,拥有丰富的数
据处理和分析经验。请计算所给数据的:\n1.平均数\n2.最值\n3.可能存在的
规律\n4.下一位数字的可能值""" # 换成你的prompt
}
],
"temperature": 0.3 #设定模型温度
}
try:
response = requests.post(api_url, headers=headers, data=json.dumps(payload))
response.raise_for_status()
return response.json()['choices'][0]['message']['content']
except Exception as e:
return f"API请求失败:{str(e)}"

# 主程序
if __name__ == "__main__":
data = analyze_data()
system_prompt = f"{data}\n\n根据以上统计数据,直接给出答案,无需遵循markdown格式"
analysis_result = get_llm_analysis(system_prompt)
print(analysis_result)

运行结果如下: