Qwen3.5-9B部署教程:镜像免配置+7860端口访问+history.json管理
Qwen3.5-9B部署教程镜像免配置7860端口访问history.json管理1. 项目概述Qwen3.5-9B是一款拥有90亿参数的开源大语言模型具备强大的逻辑推理和代码生成能力。这个教程将带你从零开始完成模型的部署和使用无需复杂配置即可快速上手。1.1 核心能力强逻辑推理能够处理复杂的逻辑问题代码生成支持多种编程语言的代码补全和生成多轮对话保持上下文连贯的长对话能力多模态理解支持图文混合输入Qwen3.5-9B-VL变体长上下文最高支持128K tokens的上下文长度2. 环境准备2.1 基础环境项目基于以下环境搭建操作系统Linux推荐Ubuntu 20.04Python环境Condatorch28环境端口7860进程管理Supervisor2.2 项目结构/root/qwen3.5-9b/ ├── app.py # 主程序 (Gradio WebUI) ├── start.sh # 启动脚本 ├── service.log # 运行日志 └── history.json # 对话历史记录3. 快速部署指南3.1 一键启动服务# 进入项目目录 cd /root/qwen3.5-9b # 启动服务 supervisorctl start qwen3.5-9b3.2 服务管理命令# 查看服务状态 supervisorctl status qwen3.5-9b # 重启服务 supervisorctl restart qwen3.5-9b # 停止服务 supervisorctl stop qwen3.5-9b # 查看实时日志 tail -f /root/qwen3.5-9b/service.log # 查看错误日志 grep -i error /root/qwen3.5-9b/service.log3.3 访问方式本地访问http://localhost:7860网络访问http://服务器IP:78604. 功能使用详解4.1 基础功能功能说明文本对话支持中英文对话图片上传支持JPEG, PNG, GIF, WEBP等格式图片描述上传图片后可询问图片内容参数调节可调整max_tokens, temperature等参数4.2 使用示例文本对话在输入框输入问题点击Send或按回车等待模型回复图片分析在右侧Upload Image上传图片在输入框描述你想问的问题点击Send参数调节Max tokens生成文本的最大长度(64-8192)Temperature采样温度越高越随机(0.0-1.5)Top P核采样阈值越低越确定(0.1-1.0)Top K采样候选数越少越确定(1-100)5. 高级配置5.1 Supervisor配置配置文件位置/etc/supervisor/conf.d/qwen3.5-9b.conf[program:qwen3.5-9b] command/bin/bash /root/qwen3.5-9b/start.sh directory/root/qwen3.5-9b environmentHOME/root,USERroot,LOGNAMEroot,SHELL/bin/bash,PATH/opt/miniconda3/envs/torch28/bin:/usr/bin:/bin userroot autostarttrue autorestarttrue startsecs30 startretries3 redirect_stderrtrue stdout_logfile/root/qwen3.5-9b/service.log stopasgrouptrue killasgrouptrue5.2 关键配置说明autostarttrue开机自动启动autorestarttrue进程异常退出自动重启startsecs30等待30秒确认进程稳定启动PATH使用torch28 Conda环境6. 环境要求6.1 Conda环境# 激活环境 conda activate torch286.2 关键依赖版本包版本要求说明transformers5.0.0支持Qwen3.5模型torch2.8.0GPU支持gradio6.xWeb界面huggingface_hub1.3.0模型下载6.3 模型路径实际路径: /root/ai-models/Qwen/Qwen3___5-9B 访问路径: /root/ai-models/Qwen/Qwen3.5-9B (符号链接)7. 日志管理7.1 日志文件位置/root/qwen3.5-9b/service.log7.2 常见日志信息日志信息含义Loading model from...正在加载模型Loading weights: XX%模型权重加载进度Model loaded successfully!模型加载成功Running on local URL: http://127.0.0.1:7860服务已启动7.3 启动排查# 检查进程是否启动 supervisorctl status qwen3.5-9b # 检查端口是否监听 ss -tlnp | grep 7860 # 检查模型加载状态 grep Model loaded /root/qwen3.5-9b/service.log # 检查错误信息 grep -i error\|exception\|traceback /root/qwen3.5-9b/service.log | tail -208. 常见问题解决8.1 服务启动失败检查步骤:查看进程状态supervisorctl status qwen3.5-9b查看最新日志supervisorctl tail qwen3.5-9b检查conda环境是否正常检查模型文件是否存在8.2 模型加载慢/卡住原因: 模型文件较大(~19GB)首次加载需要时间解决:等待2-3分钟让模型完全加载检查GPU是否可用nvidia-smi查看日志确认加载进度8.3 端口被占用# 检查端口占用 ss -tlnp | grep 7860 # 查看哪个进程占用 lsof -i :78608.4 图片上传无响应可能原因:图片格式不支持图片文件损坏网络请求超时解决: 尝试较小尺寸的图片或转换格式为PNG/JPEG9. 日常维护9.1 清理对话历史rm -f /root/qwen3.5-9b/history.json supervisorctl restart qwen3.5-9b9.2 清理日志# 备份当前日志 cp /root/qwen3.5-9b/service.log /root/qwen3.5-9b/service.log.bak # 清空日志 /root/qwen3.5-9b/service.log # 重启服务 supervisorctl restart qwen3.5-9b9.3 更新代码# 编辑主程序 vim /root/qwen3.5-9b/app.py # 重启服务 supervisorctl restart qwen3.5-9b10. 总结通过本教程你已经学会了如何部署和使用Qwen3.5-9B大语言模型。这个镜像提供了免配置的快速部署方案通过7860端口即可访问Web界面并使用history.json管理对话历史。关键要点回顾使用Supervisor管理服务进程通过7860端口访问Web界面支持文本对话和图片分析功能提供完善的日志和错误排查方法获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。