【AI超车计划】开源力量— Open WebUI 专为 LLM 设计的WEB管理工具

Open WebUI(前身为Ollama WebUI)

是一个可扩展的、功能丰富的、用户友好的自托管Web界面,设计用于完全离线运行。它支持各种LLM(大型语言模型)运行器,包括Ollama和兼容OpenAI的API。

【AI超车计划】Open WebUI-专为 LLM 设计的WEB管理工具

一.项目特性

- 🖥️ 直观的界面:我们的聊天界面灵感来自于ChatGPT,确保了用户友好的体验。

- 📱 响应式设计:在桌面和移动设备上都能享受无缝的体验。

- ⚡ 快速响应:享受快速且响应迅速的性能。

- 🚀 轻松设置:使用Docker或Kubernetes(kubectl、kustomize或helm)无缝安装,享受无忧的体验。

- 💻 代码语法高亮:通过我们的语法高亮功能享受增强的代码可读性。

- ✒️🔢 全面的Markdown和LaTeX支持:通过丰富的Markdown和LaTeX功能提升你的LLM体验。

- 📚 本地RAG集成:通过开创性的检索增强生成(RAG)支持,深入聊天互动的未来。这项功能将文档交互无缝集成到你的聊天体验中。你可以直接将文档加载到聊天中,或者毫不费力地将文件添加到你的文档库中,使用提示中的#命令轻松访问它们。在其alpha阶段,可能会出现偶尔的问题,因为我们正在积极改进和增强这项功能,以确保最佳性能和可靠性。

- 🌐 网络浏览能力:使用#命令后跟URL将网站无缝集成到你的聊天体验中。这项功能允许你直接将网络内容纳入你的对话中,增强你的互动的丰富性和深度。

- 📜 提示预设支持:使用聊天输入中的/命令即时访问预设提示。毫不费力地加载预定义的对话启动器,并加速你的互动。通过Open WebUI社区集成轻松导入提示。

- 👍 RLHF注释:通过点赞和点踩赋予你的消息力量,促进创建用于人类反馈强化学习(RLHF)的数据集。利用你的消息来训练或微调模型,同时确保本地保存数据的机密性。

- 🏷️ 对话标记:毫不费力地分类和定位特定聊天,以便快速参考和简化数据收集。

- 🗑️ 下载/删除模型:直接从Web UI中轻松下载或移除模型。

- ⬆️ GGUF文件模型创建:通过从Web UI直接上传GGUF文件,轻松创建Ollama模型。流程简化,提供从你的机器上传或从Hugging Face下载GGUF文件的选项。

- 🤖 多模型支持:无缝切换不同的聊天模型,进行多样化的互动。

- 🔄 多模态支持:与支持多模态互动的模型(例如,LLava中的图像)无缝互动。

- 🧩 模型文件构建器:通过Web UI轻松创建Ollama模型文件。创建和添加角色/代理,自定义聊天元素,并通过Open WebUI社区集成轻松导入模型文件。

- ⚙️ 多模型对话:毫不费力地同时与各种模型互动,利用它们的独特优势获得最佳响应。通过并行利用多样化的模型集,增强你的体验。

- 💬 协作聊天:通过无缝地协调多个模型的群聊,利用多个模型的集体智能。使用@命令指定模型,在你的聊天界面中启用动态多样的对话。沉浸在融入你聊天环境的集体智能中。

- 🔄 再生历史访问记录:轻松回顾和探索你的整个再生历史记录。

- 📜 聊天历史:轻松访问和管理你的对话历史。

- 📥 导入/导出聊天历史:无缝地将你的聊天数据移入和移出平台。

- 🗣️ 语音输入支持:通过语音互动与你的模型互动;享受直接与模型对话的便利。此外,探索在3秒沉默后自动发送语音输入的选项,以获得流畅的体验。

- ⚙️ 通过高级参数进行微调控制:通过调整参数(如温度)并定义你的系统提示,以将对话定制到你的特定偏好和需求,获得更深层次的控制。

- 🤖 图像生成集成:使用AUTOMATIC1111 API(本地)和DALL-E无缝集成图像生成功能,用动态视觉内容丰富你的聊天体验。

- 🤝 OpenAI API集成:无缝集成兼容OpenAI的API,与Ollama模型一起进行多样化的对话。自定义API基础URL以链接到LMStudio、Mistral、OpenRouter等。

- ✨ 多个OpenAI兼容API支持:无缝集成和定制各种兼容OpenAI的API,增强你的聊天互动的多功能性。

- 🔗 外部Ollama服务器连接:通过配置环境变量,无缝链接到托管在不同地址的外部Ollama服务器。

- 🔀 多个Ollama实例负载均衡:无缝地将聊天请求分布在多个Ollama实例上,以提高性能和可靠性。

- 👥 多用户管理:通过我们直观的管理面板轻松监督和管理用户,简化用户管理流程。

- 🔐 基于角色的访问控制(RBAC):通过限制权限确保安全访问;只有授权的个人才能访问你的Ollama,专属的模型创建/拉取权限保留给管理员。

- 🔒 后端反向代理支持:通过Open WebUI后端与Ollama之间的直接通信加强安全性。这项关键特性消除了将Ollama暴露在LAN上的需求。从Web UI发出的对'/ollama/api'路由的请求被无缝重定向到后端的Ollama,增强了整个系统的安全性。

- 🌍 多语言支持:通过我们的国际化(i18n)支持,用你喜欢的语言体验Open WebUI。加入我们,帮助我们扩展支持的语言!我们正在积极寻找贡献者!

- 🌟 持续更新:我们致力于通过定期更新和新功能改进Open WebUI。

二.项目地址
https://github.com/open-webui/open-webui
收藏

发表评论

PMdiss