https://www.npmjs.com/package/ollama-remote-mcp?activeTab=readme
写了个 mcp 直接和ollama cloud 模型对话。
请使用 remote ollama 工具,调用 gemini-3-pro-preview 模型帮我写一个 Python 的 Hello World。
理论可以 定制agent 指定多模型。
https://www.npmjs.com/package/ollama-remote-mcp?activeTab=readme
写了个 mcp 直接和ollama cloud 模型对话。
请使用 remote ollama 工具,调用 gemini-3-pro-preview 模型帮我写一个 Python 的 Hello World。
理论可以 定制agent 指定多模型。
大佬分享下实践过程呀~
用litellm转成openai格式就行了吧?
最新版 修复了iflow mcp 调用完的响应
你的 .iflow/settings.json mcpServers 对象里添加
“remote-ollama”: {
"command": "npx",
"args": \[
"ollama-remote-mcp"
\],
"env": {
"OLLAMA_BASE_URL": "https://ollama.com",
"OLLAMA_API_KEY": "你的api_key"
}
}
没看懂,ollama可以免费调用他部署的gemini3?
gemini3 调不了 其他云端大模型可以。
免费吗?
目前云端模型都免费的 用不了的会报403错误
我试了一下,果然好用,Gemini 3 Pro也是可以用的
你用的模型名是不带preview的吗 具体是什么
请使用 remote ollama 工具,调用 gemini-3-pro-preview 模型帮我写一个 Python 的 Hello World。
在iflow里这么写就行,他会自己list,然后用。
具体的模型名字应该是 gemini-3-pro-preview:latest
在 Cloud models · Ollama Search 可以看到
可能是ip不行?
刚开始开发的时候 成功过1次 后来不行了
现在还能免费用gemini 3 pro? ollama这么慷慨?
ollama本身就提供大模型接口吧,生成一个key就能用
curl https://ollama.com/api/chat
-H “Authorization: Bearer $OLLAMA_API_KEY”
-d ‘{
“model”: “gpt-oss:120b”,
“messages”: [{
“role”: “user”,
“content”: “Why is the sky blue?”
}],
“stream”: false
}’
能用也是要钱的吧,有没有免费的
![]()