LobeHub概述
现在市面上有很多的AI大模型,切来切切去使用起来也非常不方便。今天作者来分享一个开源的工具-LobeHub,可以把各大主流的AI智能聊天机器人汇集到我们自己的平台下,我们不再不需要一步一步的去各自的大模型网站打开,包含ChatGPT、Gemini Pro、Claude3、Mistral、LLaMA2等主流AI大模型。而且还有另外一个好处,就是由于我们可以自定义绑定域名,不需要科学上网也可以正常使用。而且这款程序是完全免费开源的。据作者观察现在还有人拿这个免费搭建平台来商用。

LobeHub目前在GitHub上非常火,它是一个现代化设计的ChatGPT LLM UI框架,支持语音合成、文本生成图片、多模态和可扩展的插件系统。不仅支持API接口调用,也可以集成基于ollama等本地模型,允许用户灵活使用自己的或者第三方的模型。也就意味着通过这款开源项目,就可以方便我们一键免费部署私人的的ChatGPT、Claude、Gemini等AI应用工具。

它内置了非常强大的插件系统,支持函数调用,可以让它核心功能进行进一步延伸,极大增强了实用性和灵活性。通过利用插件安装以后,它可以获取并实时处理信息,比如像:网页搜索,为用户提供即时新闻。
此外这款插件它不仅仅限于这个新闻聚合,还可以扩展到其他使用功能。例如可以快速搜索文档、生成图片,从哔哩哔哩、steam等各种流媒体平台获取数据,以及各种和第三方服务交互等。不仅如此,在手机移动方面,他们也可以做到完美的适配。但是它的功能远不止这些,这也是为什么会有人会拿它来商用的原因。


通过免费容器搭建LobeHub应用
可以通过免费容器进行一键安装!也可以通过【Vulr或者阿里云等其他云平台】进行搭建获得更快的速度。
1、免费容器安装
安装地址:
https://vercel.com/new/clone

打开上边的地址后,会跳转到安装页面,点击create按钮,创建完以后,需要填写两个参数,OPENAI_API_KEY和ACCESS_CODE。


这两个参数的获取方法:
https://platform.openai.com/api-keys,我们点击打开这个地址,直接跳转到OpenAI后台。点击创建一个新的密钥按钮。然后先把这个密钥进行命名一下,输入好以后我们点击创建这个密钥,创建好以后,先我们需要把这个密钥保存一下,后边也会使用到。
再重新回到刚才那个安装页面,在下方第一个选项这里,然后粘贴我们刚才获取到的这个OpenAI的密钥。然后第二选项就是一个访问密码,这个可以随便设置,输入好以后,我们点一下有一个创建这个应用,在那会儿它会自动部署开源这个项目。



lobe-chat的安装过程需要几分钟。因为毕竟这个容器是免费的,它的读写速度还是有限制的。安装完成以后,如果你需要添加自己的域名的话,点击Add Domain,就可以添加自己域名。

也可以使用系统提供的域名,就下面有一个三级域名,这个域名它是完全免费的。

我们打开这个域名,就可以访问到lobe-chat的主界面(如果访问不了,就科学上网)。

2、LobeHub使用
安装好以后,然后下面点击立即开始,就可以进入主操作界面,它默认支持的模型只有三个,现在GPT-3.5-turbo、GPT-4 Turbo Preview还有GPT-4 Turbo Vision Preview

如果我们需要添加更多的模型话,那么现在我们点左下方的设置按钮,进入到设置页面以后,可以看到,可以设置主题(浅色、暗黑、自动)。可以设置语言,比如英文、中文简体、繁体,日语、韩语、泰语等。还可以设置主题色。当然也可以设置密码等等,这个不是我们今天的终点,感兴趣的朋友可以自己设置玩一下。


接下来我们选择语言模型菜单,可以看到这个工具支持的AI大模型真多,几乎支持了所有主流的大模型。


我们可以按照我们的需求开启,需要哪个换就开起来,或者把它全部打开都可以,这里作者把它全部勾选上,然后又重新回到首页。这时候我们可以发现,下拉框里拥有了所有的模型。如果需要使用的话,把对应模型的API key,填上就可以使用了。

作者这里就拿谷歌的Gemini做一下测试,还是先拿到Gemini的Api Key,访问地址:
https://aistudio.google.com/app/apikey。
拿到Api Key以后,填到我们上边说的语言模型的Api Key的输入框里就 可以了。


填写完成后,我们可以点击检查按钮,显示检查通过,那么说明可以使用了。重新回到首页上,打开以后,在上面这里选择google Gemini的这个模型,选择好以后,我们就可以直接跟他对话了。通过回到我们可以看到,就是直接调用的Gemini的Api,没有做任何的封装,这点也是作者比较认同的地方。

我们再测试一下Gemini Pro Vison这个模型。

我们上传一张图片,然后问它,请问你在这张图片里看到了什么,他说我看到了人形机器人,图片识别功能是没有问题的。其他接口的话,大家可以自己对接,比如claude也是一样的。然后后面它还有一个云端同步功能,但目前它这个功能的实验性的功能,目前可能不稳定。

还有一个语音服务功能,就文本转语音。但是目前就集成了一个OpenAI TTS语音合成模型,还有下方的语音识别模型,也只有两个。

2、使用云服务器搭建 LobeHub
但如果想获取更好的性能的话,那么建议通过自己的VPS(云服务器)再进行搭建。这里作者就用Vultr做演示吧,当然通过阿里云、华为云、火山云都是可以的。
- 先部署服务器,

- 选择云计算-共享CPU

- 选择服务器,选择近一点的节点就可以了。

- 选择系统

- 选择配置

- 关掉备份

- 填写服务器信息,最后点击创建就可以了

如果想更稳定使用的话,那么建议通过VPS进行搭建,性能会更强,速度也会更快。好,当这台服务创建好以后,我们就会获得在VPS的连接信息了。比如IP地址,账号密码等等。

然后我们通过这个Window team这个工具,连上服务器。

然后通过安装命令器部署,通过下边的命令就可以完成安装,注意:OPENAI_API_KEY要替换成自己的key,当然安装需要docker环境。
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e ACCESS_CODE=lobe66 \
--name lobe-chat \
lobehub/lobe-chat
如果没有docker环境的话,我们需要先安装docker,也非常简单,就一行命令
curl -fsSL https://get.docker.com | sh systemctl enable –now docker

安装完docker环境后,我们继续执行上边的命令就可以完成部署。

安装完成以后通过IP地址加端口号,端口号是3210,打开后看到主界面的话,说明已经安装成功了。通过这种方法安装的好处就是不仅速度更快,而且性能更强最关键它是不会有限制的,在任何地方都可以使用。
安装完成以后我们再测试一下,选择上边我们刚才那个模型Gemini Pro Vison,输入:请帮我写一篇8000字的有关全球气候变暖的论文。输入好以后,点击发送,看他能不能生成,测试结果是完全没有问题的。这样我们就完成了LobeHub的私有化部署。

这里还有个插件功能,这里面提供了很多插件助手,我们可以按照自己的需求添加。这个功能就跟很多的AI工具一样了,提前写好垂直应用的Prompt,让使用者可以更加方便地使用现有的应用。

我们找一个尝试一下,比如这里添加一个写Jira的Agent,我们可以看到在右侧的侧边栏,这个Agent已经给我们写好了模板,我们只要把其中特殊字符标记的角色指定,就可以直接生成了,大家感兴趣的可以自己去尝试下。
您是一位专业的技术产品经理,专注于在Jira的迭代看板中创建故事。您的主要职能是将口头或书面的功能点子转化为全面、文档完备的故事,使用以下字段:
1. 简短标题
2. 摘要(必填)使用“作为\[人物],我\[想要],以便\[如此]”的陈述结构
3. 描述
4. 验收标准
5. 问题
您作为助手必须遵循以下规则:
1. 清晰性:确保“摘要”和“描述”字段清晰、简洁且无歧义。
2. 互动性:询问所有必要的细节,以准确填写这些字段。
3. 完整性:确保每个故事填写了所有必填和适用的字段。
4. 质量保证:在“描述”或其他字段中包含任何可辅助QA测试的额外信息。
您的目标是促进从功能点子到可操作的Jira故事的无缝过渡,充分利用指定的字段,使开发人员尽可能轻松地实施,并可以建议技术最佳实践。
