📖 项目简介
Prompt Optimizer是一个强大的AI提示词优化工具,帮助你编写更好的AI提示词,提升AI输出质量。支持Web应用、桌面应用、Chrome插件和Docker部署四种使用方式。
🎥 功能演示
1. 角色扮演对话:激发小模型潜力
在追求成本效益的生产或注重隐私的本地化场景中,结构化的提示词能让小模型稳定地进入角色,提供沉浸式、高一致性的角色扮演体验,有效激发其潜力。

2. 知识图谱提取:保障生产环境的稳定性
在需要程序化处理的生产环境中,高质量的提示词能显著降低对模型智能程度的要求,使得更经济的小模型也能稳定输出可靠的指定格式。本工具旨在辅助开发者快速达到此目的,从而加速开发、保障稳定,实现降本增效。

3. 诗歌写作:辅助创意探索与需求定制
当面对一个强大的AI,我们的目标不只是得到一个“好”答案,而是得到一个“我们想要的”独特答案。本工具能帮助用户将一个模糊的灵感(如“写首诗”)细化为具体的需求(关于什么主题、何种意象、何种情感),辅助您探索、发掘并精确表达自己的创意,与AI共创独一无二的作品。

✨ 核心特性
- 🎯 智能优化:一键优化提示词,支持多轮迭代改进,提升AI回复准确度
- 📝 双模式优化:支持系统提示词优化和用户提示词优化,满足不同使用场景
- 🔄 对比测试:支持原始提示词和优化后提示词的实时对比,直观展示优化效果
- 🤖 多模型集成:支持OpenAI、Gemini、DeepSeek、智谱AI、SiliconFlow等主流AI模型
- 🖼️ 图像生成:支持文生图(T2I)和图生图(I2I),集成Gemini、Seedream等图像模型
- 📊 高级测试模式:上下文变量管理、多轮会话测试、工具调用(Function Calling)支持
- 🔒 安全架构:纯客户端处理,数据直接与AI服务商交互,不经过中间服务器
- 📱 多端支持:同时提供Web应用、桌面应用、Chrome插件和Docker部署四种使用方式
- 🔐 访问控制:支持密码保护功能,保障部署安全
- 🧩 MCP协议支持:支持Model Context Protocol (MCP) 协议,可与Claude Desktop等MCP兼容应用集成
🚀 高级功能
图像生成模式
- 🖼️ 文生图(T2I):通过文本提示词生成图像
- 🎨 图生图(I2I):基于本地图片进行图像变换和优化
- 🔌 多模型支持:集成Gemini、Seedream等主流图像生成模型
- ⚙️ 模型参数:支持各模型特有参数配置(如尺寸、风格等)
- 📥 预览与下载:实时预览生成结果,支持下载保存
高级测试模式
- 📊 上下文变量管理:自定义变量、批量替换、变量预览
- 💬 多轮会话测试:模拟真实对话场景,测试提示词在多轮交互中的表现
- 🛠️ 工具调用支持:Function Calling集成,支持OpenAI和Gemini工具调用
- 🎯 灵活调试:更强大的提示词测试和调试能力
详细使用说明请查看 图像模式文档
快速开始
1. 使用在线版本(推荐)
直接访问:https://prompt.always200.com
项目是纯前端项目,所有数据只存储在浏览器本地,不会上传至任何服务器,因此直接使用在线版本也是安全可靠的
2. Vercel部署
方式1:一键部署到自己的Vercel(方便,但后续无法自动更新):
方式2: Fork项目后在Vercel中导入(推荐,但需参考部署文档进行手动设置):
- 先Fork项目到自己的GitHub
- 然后在Vercel中导入该项目
- 可跟踪源项目更新,便于同步最新功能和修复
- 配置环境变量:
ACCESS_PASSWORD:设置访问密码,启用访问限制VITE_OPENAI_API_KEY等:配置各AI服务商的API密钥
更多详细的部署步骤和注意事项,请查看:
- Vercel部署指南
3. 下载桌面应用
从 GitHub Releases 下载最新版本。我们为各平台提供安装程序和压缩包两种格式。
- 安装程序 (推荐): 如
*.exe,*.dmg,*.AppImage等。强烈推荐使用此方式,因为它支持自动更新。 - 压缩包: 如
*.zip。解压即用,但无法自动更新。
桌面应用核心优势:
- ✅ 无跨域限制:作为原生桌面应用,它能彻底摆脱浏览器跨域(CORS)问题的困扰。这意味着您可以直接连接任何AI服务提供商的API,包括本地部署的Ollama或有严格安全策略的商业API,获得最完整、最稳定的功能体验。
- ✅ 自动更新:通过安装程序(如
.exe,.dmg)安装的版本,能够自动检查并更新到最新版。 - ✅ 独立运行:无需依赖浏览器,提供更快的响应和更佳的性能。
4. 安装Chrome插件
- 从Chrome商店安装(由于审批较慢,可能不是最新的):Chrome商店地址
- 点击图标即可打开提示词优化器
5. Docker部署
点击查看 Docker 部署命令
国内镜像: 如果Docker Hub访问较慢,可以将上述命令中的
linshen/prompt-optimizer替换为registry.cn-guangzhou.aliyuncs.com/prompt-optimizer/prompt-optimizer
6. Docker Compose部署
点击查看 Docker Compose 部署步骤
你还可以直接编辑docker-compose.yml文件,自定义配置:
点击查看 docker-compose.yml 示例
7. MCP Server 使用说明
⚙️ API密钥配置
方式一:通过界面配置(推荐)
- 点击界面右上角的”⚙️设置”按钮
- 选择”模型管理”选项卡
- 点击需要配置的模型(如OpenAI、Gemini、DeepSeek等)
- 在弹出的配置框中输入对应的API密钥
- 点击”保存”即可
支持的模型:OpenAI、Gemini、DeepSeek、Zhipu智谱、SiliconFlow、自定义API(OpenAI兼容接口)
除了API密钥,您还可以在模型配置界面为每个模型单独设置高级LLM参数。这些参数通过一个名为 llmParams 的字段进行配置,它允许您以键值对的形式指定LLM SDK支持的任何参数,从而更精细地控制模型行为。
高级LLM参数配置示例:
- OpenAI/兼容API:
{"temperature": 0.7, "max_tokens": 4096, "timeout": 60000} - Gemini:
{"temperature": 0.8, "maxOutputTokens": 2048, "topP": 0.95} - DeepSeek:
{"temperature": 0.5, "top_p": 0.9, "frequency_penalty": 0.1}
方式二:通过环境变量配置
Docker部署时通过 -e 参数配置环境变量:
-e VITE_OPENAI_API_KEY=your_key
-e VITE_GEMINI_API_KEY=your_key
-e VITE_DEEPSEEK_API_KEY=your_key
-e VITE_ZHIPU_API_KEY=your_key
-e VITE_SILICONFLOW_API_KEY=your_key
# 多自定义模型配置(支持无限数量)
-e VITE_CUSTOM_API_KEY_ollama=dummy_key
-e VITE_CUSTOM_API_BASE_URL_ollama=http://localhost:11434/v1
-e VITE_CUSTOM_API_MODEL_ollama=qwen2.5:7b
本地开发
详细文档可查看 开发文档
点击查看本地开发命令
🗺️ 开发路线
- 基础功能开发
- Web应用发布
- Chrome插件发布
- 国际化支持
- 支持系统提示词优化和用户提示词优化
- 桌面应用发布
- MCP服务发布
- 高级模式:变量管理、上下文测试、工具调用
- 图像生成:文生图(T2I)和图生图(I2I)支持
- 支持工作区/项目管理
- 支持提示词收藏和模板管理
详细的项目状态可查看 项目状态文档
📖 相关文档
- 文档索引 – 所有文档的索引
- 技术开发指南 – 技术栈和开发规范
- LLM参数配置指南 – 高级LLM参数配置详细说明
- 项目结构 – 详细的项目结构说明
- 项目状态 – 当前进度和计划
- 产品需求 – 产品需求文档
- Vercel部署指南 – Vercel部署详细说明
Star History


没有回复内容