Open WebUI:各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API
从安装到精通,一站式探索Open WebUI的全方位功能
直达下载
返回上一页
描述
Open WebUI,为用户提供了一个功能丰富、用户友好的操作界面,特别设计以支持完全离线运行。
介绍
Open WebUI是一个扩展性强、特性丰富且友好的自托管Web界面,它能完全离线运行,支持多种LLM运行器,如Ollama和兼容OpenAI的API。这款WebUI旨在提升用户体验,无论是在桌面还是移动设备上,都能享受流畅、快速的响应性能。
特性亮点
- 直观的界面设计:借鉴ChatGPT的设计,为用户提供了易用的聊天界面。
- 响应式设计:无论在哪种设备上,都能提供无缝的体验。
- 快速响应:性能优化,实现快速反馈。
- 简易安装过程:通过Docker或Kubernetes实现无痛安装。
- 代码语法高亮:增强代码的可读性。
- 全面支持Markdown和LaTeX:为LLM交互提供丰富的文本和公式编辑能力。
- 本地RAG集成:在聊天体验中无缝整合文档交互,即使处于alpha阶段也能大幅提升交互深度。
- Web浏览能力:直接将网页内容融入对话,丰富交互内容。
- 预设提示支持:通过社区集成,轻松导入和使用预设的对话开端。
安装指南
Docker快速启动:
在本机安装Ollama时使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
若Ollama部署在不同服务器上,则需要调整OLLAMA_BASE_URL至服务器地址:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装后,通过http://localhost:3000
访问Open WebUI,享受改善后的交互体验。
Open WebUI不仅提供了一个直观、响应迅速的用户界面,还引入了诸多创新特性,如本地RAG集成、Web浏览能力和预设提示支持,极大地丰富了用户的交互体验。
×
直达下载
×
初次访问:反爬虫,人机识别