使用 Node.js 和 Taotoken 快速构建一个异步 AI 问答服务1. 环境准备与配置在开始构建服务前需要确保已安装 Node.js 16 或更高版本。创建一个新项目目录并初始化mkdir ai-qa-service cd ai-qa-service npm init -y npm install openai dotenv在项目根目录创建.env文件存储敏感信息TAOTOKEN_API_KEYyour_api_key_here MODEL_IDclaude-sonnet-4-6重要提示API Key 需从 Taotoken 控制台的「API 密钥」页面获取模型 ID 可在「模型广场」查看。请勿将.env文件提交到版本控制系统。2. 初始化 OpenAI 客户端创建src/client.js文件配置基础客户端import { config } from dotenv; import OpenAI from openai; config(); const client new OpenAI({ apiKey: process.env.TAOTOKEN_API_KEY, baseURL: https://taotoken.net/api, }); export default client;关键配置说明baseURL必须设置为https://taotoken.net/api以正确接入 Taotoken 服务通过dotenv安全加载环境变量导出的客户端实例将在整个应用中共用3. 实现问答服务核心逻辑创建src/service.js实现异步问答功能import client from ./client.js; export async function askAI(question, stream false) { const params { model: process.env.MODEL_ID, messages: [{ role: user, content: question }], stream, }; try { const completion await client.chat.completions.create(params); return stream ? handleStreamResponse(completion) : completion.choices[0].message.content; } catch (error) { console.error(API Error:, error); throw new Error(Failed to get AI response); } } function handleStreamResponse(stream) { return new Promise((resolve, reject) { let fullContent ; stream.on(content, (delta) { fullContent delta; }); stream.on(end, () resolve(fullContent)); stream.on(error, reject); }); }该模块提供两种响应模式默认同步模式直接返回完整回答流式模式stream: true适合处理长文本生成4. 创建 HTTP 服务接口新建src/server.js暴露 REST APIimport express from express; import { askAI } from ./service.js; const app express(); app.use(express.json()); app.post(/ask, async (req, res) { try { const { question, stream } req.body; const answer await askAI(question, stream); res.json({ success: true, data: answer }); } catch (error) { res.status(500).json({ success: false, error: error.message }); } }); const PORT process.env.PORT || 3000; app.listen(PORT, () { console.log(Server running on port ${PORT}); });启动服务后可通过以下 curl 测试curl -X POST http://localhost:3000/ask \ -H Content-Type: application/json \ -d {question:如何用Node.js读取文件}5. 监控与日志查看所有通过 Taotoken 的 API 调用都会记录在控制台的「调用日志」页面您可以按时间范围筛选请求查看各次调用的模型、Token 用量和状态码分析服务的响应延迟趋势对于生产环境建议在代码中添加业务级的日志记录将用户问题与 AI 回答关联存储。