DeepSeek大模型介绍

DeepSeek是一款近期爆火的AI大模型,凭借先进的算法和卓越的能力在AI领域表现出众。它凭一己之力推动了国内AI大模型的跨越式发展,成为现象级的AI产品,吸引了大量用户使用,用户量呈现暴增态势。然而,由于其受欢迎程度极高,近期服务器遭受攻击,导致用户在使用时经常遇到服务器繁忙的情况。为了更方便地使用DeepSeek,将其部署在本地电脑是一个不错的选择。

deepseek本地部署安装包DeepSeek爆火,表现出众推动国内Ai大模型跨越式发展

部署准备:下载安装Ollama

不同版本DeepSeek模型配置及适用场景

DeepSeek - R1 - 1.5B

  • 硬件配置要求
    • CPU:最低4核,推荐使用Intel/AMD多核处理器。
    • 内存:8GB及以上。
    • 存储:3GB及以上,因为模型文件约1.5 - 2GB。
    • 显卡:非必需,支持纯CPU推理;若需要GPU加速,可选4GB显存的显卡,如GTX 1650。
  • 适用场景
    • 适合在低资源设备上部署,例如树莓派、旧款笔记本等。
    • 可用于实时文本生成,如聊天机器人、简单问答等场景。
    • 也适用于嵌入式系统或物联网设备。

DeepSeek - R1 - 7B

  • 硬件配置要求
    • CPU:8核及以上,推荐使用多核CPU。
    • 内存:16GB及以上。
    • 显卡:推荐使用8GB显存的显卡,如RTX 3070/4060。
  • 适用场景:暂未明确提及,推测由于其相对较高的硬件要求,可能适用于对模型性能和处理能力要求更高的复杂任务,如大规模文本分析、复杂语义理解等场景。

在本地电脑上部署DeepSeek,可通过Ollama这个工具来实现,以下为你详细介绍部署步骤:

前期准备

1. 确认硬件配置

  • DeepSeek-R1-1.5B
    • CPU:最低4核(推荐Intel/AMD多核处理器)。
    • 内存:8GB及以上。
    • 存储:3GB以上(模型文件约1.5 - 2GB)。
    • 显卡:非必需(纯CPU推理),若需要GPU加速可选4GB显存(如GTX 1650)。
  • DeepSeek-R1-7B
    • CPU:8核以上(推荐多核CPU)。
    • 内存:16GB及以上。
    • 显卡:推荐8GB显存(如RTX 3070/4060)。

2. 安装Ollama

  • Windows系统
    • 访问Ollama的官方GitHub发布页面(https://github.com/jmorganca/ollama/releases )。
    • 下载适用于Windows的安装程序(通常是 .exe 后缀的文件)。
    • 运行下载的安装程序,按照安装向导的提示完成安装。
  • macOS系统
    • 可以使用Homebrew进行安装,在终端中执行以下命令:
      brew install ollama
  • Linux系统
    • 在终端中执行以下命令进行安装:
      curl https://ollama.com/install.sh | sh

部署步骤

1. 启动Ollama服务

  • 打开终端(Windows系统可以使用PowerShell或者命令提示符)。
  • 输入以下命令启动Ollama服务:
    ollama serve

    如果是首次启动,可能需要一些时间来完成初始化。

2. 拉取DeepSeek模型

在另一个终端窗口中(确保Ollama服务已经成功启动),根据你选择的模型版本,执行相应的拉取命令:

  • DeepSeek - R1 - 1.5B
    ollama pull deepseek:r1-1.5b
  • DeepSeek - R1 - 7B
    ollama pull deepseek:r1-7b

    拉取过程可能需要一些时间,具体取决于你的网络速度。

3. 使用DeepSeek模型

当模型拉取完成后,就可以在本地使用DeepSeek模型进行交互了。在终端中输入以下命令与模型进行对话:

ollama run deepseek:r1-1.5b

或者如果你拉取的是7B版本:

ollama run deepseek:r1-7b

输入你想要询问的问题,按下回车键,模型就会给出相应的回答。

注意事项

  • 网络问题:拉取模型时需要稳定的网络连接,如果网络不稳定,可能会导致拉取失败,需要重新尝试。
  • 硬件性能:如果硬件配置达不到要求,可能会导致模型运行缓慢甚至无法正常运行。在运行过程中可以监控系统资源的使用情况,如CPU、内存和显卡的使用率。
  • 更新问题:Ollama和DeepSeek模型可能会有更新,定期检查更新并进行升级可以获得更好的性能和功能。