千问3.5-2B VMware虚拟机炼丹指南:隔离的AI开发环境搭建

张开发
2026/4/11 1:05:14 15 分钟阅读

分享文章

千问3.5-2B VMware虚拟机炼丹指南:隔离的AI开发环境搭建
千问3.5-2B VMware虚拟机炼丹指南隔离的AI开发环境搭建1. 为什么选择虚拟机做AI开发在本地机器上直接安装AI开发环境可能会遇到各种依赖冲突和系统污染问题。使用VMware虚拟机可以创建一个完全隔离的沙盒环境既能保护宿主机系统不受影响又能方便地进行环境快照和恢复。对于千问3.5-2B这样的开源大模型我们经常需要尝试不同的配置和参数。虚拟机环境可以让我们大胆实验不用担心搞乱系统。即使出了问题也能快速恢复到之前的状态。2. 准备工作与环境搭建2.1 硬件与软件需求在开始之前请确保你的电脑满足以下基本要求宿主机配置建议至少16GB内存100GB可用磁盘空间VMware Workstation16.x或17.x版本Pro版支持GPU直通Ubuntu镜像推荐22.04 LTS版本稳定性较好网络连接需要稳定网络以下载安装包和模型如果你的机器有NVIDIA显卡可以考虑配置GPU直通需要VT-d/AMD-Vi支持。没有独立显卡也没关系我们可以使用纯CPU模式运行千问3.5-2B模型。2.2 创建Ubuntu虚拟机打开VMware Workstation按照以下步骤创建新虚拟机选择创建新的虚拟机使用自定义配置硬件兼容性选择最新版本如Workstation 17.x选择稍后安装操作系统客户机操作系统选Linux版本选Ubuntu 64位为虚拟机命名如Qwen_AI_Dev选择存储位置确保有足够空间处理器配置至少2核4核更好开启虚拟化引擎内存分配至少8GB16GB更流畅网络类型NAT模式方便联网创建新虚拟磁盘建议60GB以上选择将虚拟磁盘拆分成多个文件完成创建后在虚拟机设置中挂载Ubuntu ISO镜像3. Ubuntu系统安装与基础配置3.1 安装Ubuntu系统启动虚拟机进入Ubuntu安装界面选择Install Ubuntu键盘布局保持默认英语US选择Normal installation勾选Install third-party software安装类型选择Erase disk and install Ubuntu不用担心只会影响虚拟磁盘设置时区、用户名和密码建议使用简单密码方便测试等待安装完成重启虚拟机3.2 基础环境配置登录系统后首先更新软件包并安装必要工具sudo apt update sudo apt upgrade -y sudo apt install -y git curl wget python3-pip python3-venv如果计划使用GPU加速还需要安装NVIDIA驱动仅限支持GPU直通的配置sudo ubuntu-drivers autoinstall sudo reboot重启后可以通过nvidia-smi命令验证驱动是否安装成功。4. 千问3.5-2B模型环境部署4.1 创建Python虚拟环境为了避免包冲突我们为模型创建独立的Python环境mkdir ~/qwen_project cd ~/qwen_project python3 -m venv qwen-env source qwen-env/bin/activate4.2 安装依赖库激活虚拟环境后安装必要的Python包pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu pip install transformers sentencepiece tiktoken如果你配置了GPU直通且驱动正常可以安装支持CUDA的PyTorch版本pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu1184.3 下载千问3.5-2B模型使用Hugging Face的transformers库可以直接下载模型from transformers import AutoModelForCausalLM, AutoTokenizer model_name Qwen/Qwen1.5-1.8B # 注意3.5-2B可能需要特定访问权限 tokenizer AutoTokenizer.from_pretrained(model_name) model AutoModelForCausalLM.from_pretrained(model_name)如果下载速度慢可以考虑先下载模型文件到本地再加载git lfs install git clone https://huggingface.co/Qwen/Qwen1.5-1.8B5. 模型测试与使用5.1 简单对话测试创建一个简单的Python脚本测试模型from transformers import AutoModelForCausalLM, AutoTokenizer model_path Qwen1.5-1.8B # 或使用远程名称Qwen/Qwen1.5-1.8B tokenizer AutoTokenizer.from_pretrained(model_path) model AutoModelForCausalLM.from_pretrained(model_path) input_text 请介绍一下人工智能的发展历史 inputs tokenizer(input_text, return_tensorspt) outputs model.generate(**inputs, max_new_tokens100) print(tokenizer.decode(outputs[0], skip_special_tokensTrue))5.2 性能优化建议在虚拟机环境中运行大模型可能会遇到性能瓶颈以下是一些优化建议内存不足增加虚拟机内存分配16GB以上速度慢尝试量化模型使用4bit或8bit量化显存不足减小batch size或使用CPU模式磁盘空间定期清理不需要的缓存和临时文件6. 环境管理与维护6.1 使用快照功能VMware的快照功能是这个工作流的最大优势之一在模型运行正常时创建一个干净环境快照在尝试新配置或实验前创建实验前快照如果出现问题可以快速回滚到之前的稳定状态6.2 日常使用建议定期导出重要模型和代码到宿主机备份使用screen或tmux保持长时间运行的任务监控资源使用情况避免虚拟机卡死考虑使用SSH连接虚拟机获得更好的终端体验获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章