如何在iflow中使用 gemeni3-pro-priview

https://www.npmjs.com/package/ollama-remote-mcp?activeTab=readme

写了个 mcp 直接和ollama cloud 模型对话。
请使用 remote ollama 工具,调用 gemini-3-pro-preview 模型帮我写一个 Python 的 Hello World。
理论可以 定制agent 指定多模型。

1 个赞

大佬分享下实践过程呀~

用litellm转成openai格式就行了吧?

最新版 修复了iflow mcp 调用完的响应

你的 .iflow/settings.json mcpServers 对象里添加

“remote-ollama”: {

  "command": "npx",

  "args": \[

    "ollama-remote-mcp"

  \],

  "env": {

    "OLLAMA_BASE_URL": "https://ollama.com",

    "OLLAMA_API_KEY": "你的api_key"

  }

}
1 个赞

重启iflow 提问

请使用 remote ollama 工具,使用 minimax-m2:cloud 模型 来 写一个 python 版 hello world

没看懂,ollama可以免费调用他部署的gemini3?

gemini3 调不了 其他云端大模型可以。

免费吗?

目前云端模型都免费的 用不了的会报403错误

我试了一下,果然好用,Gemini 3 Pro也是可以用的

1 个赞

你用的模型名是不带preview的吗 具体是什么

请使用 remote ollama 工具,调用 gemini-3-pro-preview 模型帮我写一个 Python 的 Hello World。
在iflow里这么写就行,他会自己list,然后用。

具体的模型名字应该是 gemini-3-pro-preview:latest
Cloud models · Ollama Search 可以看到

1 个赞

问题我的会返回403 forbbiden

可能是ip不行?

刚开始开发的时候 成功过1次 后来不行了


增加了一个mini-swe-agent 工具 自动切换模型来处理复杂任务 ,目前还没测试太复杂得。 应该支持 多轮自动对话吧

1 个赞

现在还能免费用gemini 3 pro? ollama这么慷慨?

1 个赞

ollama本身就提供大模型接口吧,生成一个key就能用

curl https://ollama.com/api/chat
-H “Authorization: Bearer $OLLAMA_API_KEY”
-d ‘{
“model”: “gpt-oss:120b”,
“messages”: [{
“role”: “user”,
“content”: “Why is the sky blue?”
}],
“stream”: false
}’

能用也是要钱的吧,有没有免费的

:rofl: