如何在iflow中配置本地大模型(ollama)

看到模型可以通过设置settings.json配置 模型库里的其他模型,突发奇想是不是也可以通过修改settings.json文件修改为自己本地的大模型

1.在你的用户文件夹下找到settings.json文件,我的win11的位置是 C:\Users\Administrator\.iflow
你只需把”Administrator”改成你自己的用户名就可以

2.打开settings.json ——啰嗦一句,最好修改之前先备份一下原来的settings.json文件,以免改出问题——修改2个字段,分别为:

“ baseUrl”: “http://127.0.0.1:11434/v1”,
“modelName”: “qwen3:latest”,

其中 “http://127.0.0.1:11434/v1” 是我本地ollama的地址,“qwen3:latest” 是我本地的一个7B的大模型。

3.中间踩坑是把ollama地址写错了,加了个port字段,发现不管用且启动iflow还报错,但是也不用担心三遍以后系统自动重新认证,让重新选模型,改错的settings.json被自动覆盖了。

感谢总结

7B的模型能行么,感觉完全什么都不知道啊

能不能跑7b得看你电脑配置了,我的显卡显存只有2G,所以跑模型用不了显卡,完全是靠内存8g,后来换了16g 也是跑7b、8b,想跑14b,但是奇慢,特别是多轮对话更不行

1 个赞