Ollama向量模型的使用小感

前言

因为有一台闲置的linux服务器,所以就安装了宝塔准备自己折腾一些好玩的项目。
在docker应用商店中看到了Ollama项目于是就想着部署一下。

过程

首先我以为这个是一个大语言模型,经过部署后才知道是一个向量模型。

向量模型简单理解就是知识库,当我部署好以后访问url发现只有一个ollama is running

并没有后台,研究后发现需要配合其他项目比如maxkb。

于是我就在我的maxkb中添加了这个向量模型并且使用了web服务。

填写的URL地址当然就是我网站了。可能是因为服务器配置较低,所以向量模型在处理网站内容的时候很慢。

然后就是并不是所有的文章它都会获取,而仅仅是获取首页中你已经显示的文章和分类等。

当我用命中测试想着测试一下他的准确度时发现他的响应和WordPress自带的搜索并没什么差别。

感言

首先,可能是我配置问题没有很好的利用这个向量模型。

其次,也有可能我不会使用向量模型导致体验较差。

最后,我觉得有兴趣有能力的小伙伴可以自己部署一个向量模型,作为一个知识库它是很不错的选择。

提示:本文最后更新于2024年 9月 22日,如有错误或者已经失效,请留言告知。
THE END